Wenn wir ein neuronales Netzwerk haben, wie zum Beispiel das mehrschichtige Perceptron-Rückpropagations-Neuralnetzwerk, das sigmodiale logistische Aktivierungsfunktionen verwendet, ist es möglich, die Netzwerkausgänge zu speisen und eine Reihe von Eingaben zu berechnen? Da wir die Aktivierungsfunktion durch Verwendung des natürlichen Logarithmus und der inversen Operationen umkehren können, bis wir einen Summenwert haben, der aus allen mit ihren Eingaben multiplizierten Gewichtungen besteht, würde ich denken, dass es möglich wäre, zumindest Sätze von möglichen Eingaben zu erhalten generiert den angegebenen Ausgabewert.
Da es eine unendliche Anzahl von Möglichkeiten gibt, das Ergebnis an die Ernährungsneuronen zu verteilen, ist dies nur für jede Schicht möglich, in der die Anzahl der empfangenden Neuronen gleich der Anzahl der Ernährungsneuronen ist. Dort ist es eine einfache lineare Gleichung, die auf ein Matrix-Multiplikations- / Inversionsproblem hinausläuft, das leicht gelöst werden kann.
Wenn die Anzahl der Neuronen, bei denen die Anzahl der empfangenden Neuronen (n) kleiner ist als die Anzahl der Ernährungsneuronen (m), haben Sie als Lösungsraum eine Mannigfaltigkeit mit m - n Dimensionen.
Tags und Links neural-network reverse