tensorflow-serving

TensorFlow Serving ist ein flexibles, leistungsstarkes Serving-System für Machine-Learning-Modelle, das für Produktionsumgebungen entwickelt wurde. TensorFlow Serving vereinfacht die Bereitstellung neuer Algorithmen und Experimente, wobei die Serverarchitektur und APIs beibehalten werden. TensorFlow Serving bietet eine sofort einsatzbereite Integration in TensorFlow-Modelle, kann jedoch problemlos erweitert werden, um anderen Arten von Modellen und Daten zu dienen.
1
Antwort

Ist es thread-sicher, wenn tf.Session im Inferenz-Service verwendet wird?

Jetzt haben wir mit TensorFlow ein Modell trainiert und exportiert. Wir können den Inferenzservice mit diesem Modell genauso implementieren wie tensorflow/serving . Ich habe eine Frage, ob das tf.Session -Objekt Thread-sicher ist oder ni...
01.08.2016, 08:24
1
Antwort

Ist es möglich, ein Syntaxnet-Modell (Parsey McPareface) zu exportieren, das mit TensorFlow Serving geliefert wird?

Ich habe die Demo.sh funktioniert gut und ich habe auf die Parser_eval.py geschaut und hat alles bis zu einem gewissen Grad groked. Ich sehe jedoch nicht, wie dieses Modell mit TensorFlow Serving bedient werden kann. Es gibt zwei Probleme, die i...
10.06.2016, 15:47
2
Antworten

Tensorflow-Serving-Test fehlgeschlagen

Ich versuche, Tensorflow Serving auf Ubuntu zu erstellen. Ich habe Tensorflow und Tensorflow kompiliert, die von der Quelle ohne Fehler dienen, aber wenn ich renne: %Vor% Ich erhalte den folgenden Fehler: %Vor% Alle anderen Tests bestehe...
05.09.2017, 20:16