Ich benutze Caffe, um ein CNN mit einer euklidischen Verlustschicht am unteren Rand zu trainieren, und meine solver.prototxt-Datei ist so konfiguriert, dass sie alle 100 Iterationen anzeigt. Ich sehe so etwas,
%Vor%Ich bin verwirrt, was der Unterschied zwischen dem Iterationsverlust und dem Train-Nettoverlust ist. Normalerweise ist der Iterationsverlust sehr klein (um 0) und der Train-Net-Output-Verlust ist etwas größer. Kann jemand bitte klarstellen?
Evan Shehamer hat seine Antwort bereits auf Ссылка gegeben.
Wie er hervorhebt, ist das net output #k
-Ergebnis die Ausgabe des Netzes für diese bestimmte Iteration / jeden Batch, während die Iteration T, loss = X
-Ausgabe über Iterationen entsprechend dem average_loss
-Feld geglättet wird.
Tags und Links python neural-network caffe pycaffe euclidean-distance