Innehållsförteckning:

Hur servar du en TensorFlow-modell?
Hur servar du en TensorFlow-modell?

Video: Hur servar du en TensorFlow-modell?

Video: Hur servar du en TensorFlow-modell?
Video: Сохранение и загрузка моделей (кодирование TensorFlow) 2024, Maj
Anonim

För att tjäna en Tensorflow-modell , exportera helt enkelt en SavedModel från din Tensorflöde program. SavedModel är ett språkneutralt, återställbart, hermetiskt serialiseringsformat som gör det möjligt för system och verktyg på högre nivå att producera, konsumera och transformera TensorFlow-modeller.

Följaktligen, hur kör jag en TensorFlow-modell?

Det här är stegen vi ska göra:

  1. Gör en dum modell som exempel, träna och förvara den.
  2. Hämta de variabler du behöver från din lagrade modell.
  3. Bygg tensorinformationen från dem.
  4. Skapa modellsignaturen.
  5. Skapa och spara en modellbyggare.
  6. Ladda ner en Docker-bild med TensorFlow-serveringen redan kompilerad på den.

Dessutom, vad serverar TensorFlow? TensorFlow Servering är en flexibel, högpresterande servering system för maskininlärningsmodeller, designat för produktionsmiljöer. TensorFlow Servering ger out-of-the-box integration med TensorFlow modeller, men kan enkelt utökas till tjäna andra typer av modeller och data.

Angående detta, hur fungerar TensorFlow-serven?

TensorFlow Servering låter oss välja vilken version av en modell, eller "serverbar" vi vill använda när vi gör slutsatser. Varje version kommer att exporteras till en annan underkatalog under den angivna sökvägen.

Vad är en modellserver?

Modellserver för Apache MXNet (MMS) är en öppen källkodskomponent som är utformad för att förenkla uppgiften att distribuera djupinlärning modeller för slutledning i skala. Utplacering modeller för slutledning är inte en trivial uppgift.

Rekommenderad: