Multivariate Regression Neuronale Netzwerkverlustfunktion

8

Ich mache multivariate Regression mit einem vollständig verbundenen mehrschichtigen neuronalen Netzwerk in Tensorflow. Das Netzwerk sagt 2 kontinuierliche Float-Variablen (y1,y2) voraus, die einen Eingabevektor (x1,x2,...xN) haben, d. H. Das Netzwerk hat 2 Ausgabeknoten. Bei 2 Ausgängen scheint das Netzwerk nicht zu konvergieren. Meine Verlustfunktion ist im Wesentlichen der L2-Abstand zwischen den Vorhersage- und Wahrheitsvektoren (jeder enthält 2 Skalare):

%Vor%

Ich verwende L2-Regularisierung, Dropout-Regularisierung und meine Aktivierungsfunktionen sind tanh.

Meine Fragen : Ist der L2-Abstand der richtige Weg, um den Verlust für eine multivariate Netzwerkausgabe zu berechnen? Gibt es einige Tricks, um multivariate Regressionsnetzwerke konvergieren zu lassen (im Gegensatz zu Netzwerken und Klassifikatoren mit einer einzelnen Variablen)?

    
Ron Cohen 17.07.2016, 22:41
quelle

0 Antworten