Bitte entschuldigen Sie die Breite dieser Frage. Vielleicht kann ich, wenn ich mehr weiß, vielleicht genauer fragen.
Ich habe ein leistungsempfindliches Stück Tensorflusscode. Aus der Perspektive von jemandem, der wenig Ahnung von GPU-Programmierung hat, würde ich gerne wissen, welche Anleitungen oder Strategien ein "guter Startpunkt" für die Optimierung meines Codes wären. (einzelne GPU)
Vielleicht wäre sogar eine Anzeige, wie lange für jede Tensorflow-Operation ausgegeben wurde, nett ...
Ich habe ein vages Verständnis, dass
Es kann auch andere gemeinsame Faktoren geben, die mir nicht bekannt sind.
Ich wollte eine vollständigere Antwort geben, wie man das Objekt Timeline verwendet, um die Ausführungszeit für jeden Knoten im Graphen zu erhalten:
sess.run()
, spezifizieren aber die Argumente options
und run_metadata
run_metadata.step_stats
data li>
Hier ist ein Beispielcode:
%Vor% Sie können dann Google Chrome öffnen, auf die Seite chrome://tracing
gehen und die timeline.json
-Datei laden.
Du solltest etwas wie:
Tags und Links performance tensorflow gpu cpu