machine-learning

___ tag123machineelearning ___ Implementierungsfragen zu Algorithmen des maschinellen Lernens. Allgemeine Fragen zum maschinellen Lernen sollten in ihren jeweiligen Communities veröffentlicht werden. ___ qstnhdr ___ Ein mehrschichtiges Perzeptron-Netzwerk verstehen ___ tag123neuralnetwork ___ Netzwerkstruktur inspiriert von vereinfachten Modellen biologischer Neuronen (Gehirnzellen). Neuronale Netze werden trainiert, um durch überwachte und unbeaufsichtigte Techniken zu "lernen" und können verwendet werden, um Optimierungsprobleme, Approximationsprobleme, Klassifikationsmuster und Kombinationen davon zu lösen. ___ qstntxt ___

Ich versuche zu verstehen, wie man einen Multilayer trainiert; Ich habe jedoch einige Schwierigkeiten herauszufinden, wie man eine geeignete Netzwerkarchitektur - d. h. die Anzahl der Knoten / Neuronen in jeder Schicht des Netzwerks - ermittelt.

Für eine bestimmte Aufgabe habe ich vier Eingabequellen, die jeweils einen von drei Zuständen eingeben können. Ich denke, das würde bedeuten, dass vier Input-Neuronen entweder 0, 1 oder 2 feuern würden, aber so weit ich es gesagt habe, sollte die Eingabe binär gehalten werden?

Außerdem habe ich Probleme bei der Auswahl der Neuronenmenge in der versteckten Schicht. Alle Kommentare wären großartig.

Danke.

    
___ answer2708040 ___

Die Bestimmung einer akzeptablen Netzwerkstruktur für ein mehrschichtiges Perzeptron ist eigentlich unkompliziert.

  1. Eingabeebene : Wie viele Features / Dimensionen sind enthalten? Ihre Daten - dh wie viele Spalten in jede Datenzeile. Fügen Sie einen hinzu (für der Bias - Knoten) und das ist die Anzahl der Knoten für die erste (Eingabe Ebene).

  2. Ausgabeschicht : Wird Ihr MLP in 'Maschine' ausgeführt? Modus oder Regressionsmodus ('Regression' hier in der maschinelles Lernen statt statistischer Sinn) - dh tut mein MLP Gibt eine Klassenbezeichnung oder eine vorhergesagte zurück Wert? Wenn letzteres, dann dein Die Ausgabeschicht hat einen einzelnen Knoten. Ob Erstere, dann Ihre Ausgabeschicht hat die gleiche Anzahl von Knoten wie Klassenlabels. Zum Beispiel, wenn der Ergebnis, das Sie wollen, ist jedes zu beschriften Instanz als entweder "Betrug" oder "nicht Betrug ", das sind zwei Klassenlabels, Daher zwei Knoten in Ihrer Ausgabe Ebene.

  3. Ausgeblendete Ebene (n) : Zwischen diesen beiden (Eingabe und Output) sind offensichtlich die versteckten Lagen. Beginnen Sie immer mit einem einzigen versteckte Ebene. Also wie viele Knoten? Hier ist eine Faustregel: Legen Sie die (ursprüngliche) Größe der ausgeblendeten Ebene auf eine bestimmte Anzahl von Knoten fest, die nur geringfügig größer als die Anzahl der Knoten in der Eingabeebene ist. Verglichen mit weniger Knoten als der Eingabeschicht hilft diese Überkapazität, Ihre numerische Optimierungsroutine (z. B. Gradientenabstieg) zu konvergieren.

Beginnen Sie zusammen mit drei Schichten für Ihre Netzwerkarchitektur; Die Größen der ersten (Eingabe) und letzten (Ausgabe werden durch Ihre Daten bzw. durch Ihren Modellentwurf festgelegt. Eine verborgene Ebene, die gerade etwas größer als die Eingabeebene ist, ist fast immer ein gutes Design, um zu beginnen.

In Ihrem Fall wäre eine geeignete Netzwerkstruktur:

Eingabeschicht : 5 Knoten - & gt; versteckte Ebene : 7 Knoten - & gt; Ausgabeschicht : 3 Knoten

    
___ answer2747813 ___

Ich stimme Dougs Antwort oben in einigen Punkten nicht zu.

Sie haben 4 diskrete (3-Wege kategoriale) Eingänge. Sie sollten (sofern Sie keinen starken Grund dafür haben) dies als 12 Binäreingänge darstellen, die eine 1-aus-3-Codierung für jeden Ihrer vier konzeptionellen Eingänge verwenden. Wenn Sie also [2,0,1,1] eingeben, sollte Ihr Netzwerk Folgendes erhalten: 0 0 1 1 0 0 0 1 0 0 1 0 Wenn Ihre Netzwerkimplementierung einen manuellen Bias erfordert, sollten Sie ein weiteres Always-On-Bit für den Bias hinzufügen, aber die meisten sinnvollen neuronalen Netzimplementierungen erfordern dies nicht.

Probiere ein paar verschiedene Zahlen von versteckten Einheiten aus. Sie müssen sich nicht auf eine versteckte Layer-Größe beschränken, die kleiner ist als die Eingabe-Layer-Größe, aber wenn Sie es größer machen, sollten Sie darauf achten, dass Sie Ihre Gewichtungen normalisieren, vielleicht mit L2- oder L1-Gewicht-Verfall und vielleicht sogar früher Stopps im Training (stoppe das Training, wenn dein Fehler in einem ausgehaltenen Validierungssatz aufhört sich zu verbessern).

    
___ tag123deeplearning ___ Deep Learning ist ein Bereich des maschinellen Lernens, dessen Ziel es ist, komplexe Funktionen mit speziellen neuronalen Netzwerkarchitekturen zu erlernen, die "tief" sind (aus vielen Schichten bestehen). Dieses Tag sollte für Fragen zur Implementierung von Deep-Learning-Architekturen verwendet werden. Allgemeine Fragen zum maschinellen Lernen sollten mit "maschinelles Lernen" gekennzeichnet werden. Eine Markierung für die relevante Softwarebibliothek (z. B. "keras" oder "tensorflow") ist hilfreich. ___
3
Antworten

Wie vermeide ich Impression Bias bei der Berechnung der ctr?

Wenn wir ein ctr (click through rate) -Modell trainieren, müssen wir manchmal die reale ctr aus den History-Daten berechnen, so wie dies %Vor% Wenn die Anzahl der Impressions zu klein ist, ist das berechnete ctr nicht real. Daher legen wir i...
25.10.2012, 05:53
2
Antworten

Was ist die theoretische Grundlage für den Dummy-Klassifikator scikit-learn?

In der Dokumentation habe ich gelesen, dass ein Dummy-Klassifikator verwendet werden kann Testen Sie es gegen einen Klassifikationsalgorithmus.    Dieser Klassifikator ist nützlich als einfache Vergleichsbasis für andere   (echte) Klassifik...
04.04.2015, 02:00
2
Antworten

Paket 'neuralnet' in R, rektifizierte lineare Einheit (ReLU) Aktivierungsfunktion?

Ich versuche, andere Aktivierungsfunktionen als die vorimplementierten "logistic" und "tanh" im R-Paket-Neuralnetz zu verwenden. Genauer gesagt würde ich gerne rektifizierte lineare Einheiten (ReLU) f (x) = max {x, 0} verwenden. Bitte sehen Sie...
30.12.2015, 16:02
1
Antwort

Berechnung der AUC bei Verwendung von Vowpal Wabbit

Gibt es trotzdem eine Berechnung der AUC in Vowpal Wabbit? Einer der Gründe, warum ich Vowpal Wabbit verwende, ist die große Größe der Datendatei. Ich kann die AUC außerhalb der Vowpal Wabbit-Umgebung mit der Ausgabe von Vowpal Wabbit berechn...
17.06.2014, 12:59
4
Antworten

Sentimentanalyse-Java-Bibliothek

Ich habe einige unbenannte Microblogging-Posts und möchte ein Sentiment-Analyse-Modul erstellen. Um dies zu tun, habe ich versucht Stanford Bibliothek und Alchemy Api Web-Service, aber das Ergebnis ist nicht sehr gut. Fürs Erste möchte ic...
15.11.2014, 18:32
1
Antwort

Wie kann ich mit Computer Vision eine Form in einem Bild finden?

Ich habe ein einfaches Foto, das ein Logo-Bild enthalten kann oder auch nicht. Ich versuche herauszufinden, ob ein Bild die Logoform enthält oder nicht. Das Logo (rechteckige Form mit einigen zusätzlichen Funktionen) könnte verschiedene Größen h...
12.03.2010, 03:27
1
Antwort

Unter welchen Parametern sind SVC und LinearSVC in scikit-learn äquivalent?

Ich lese diesen Thread über den Unterschied zwischen SVC() und LinearSVC() in scikit-learn. Jetzt habe ich einen Datensatz mit einem binären Klassifikationsproblem (für solch ein Problem könnte der Eins-zu-Eins / Eins-zu-Rest-Strategi...
21.11.2015, 13:36
1
Antwort

Warum konvergiert der Perceptron Lernalgorithmus nicht?

Ich habe den Perceptron-Lernalgorithmus in Python wie folgt implementiert. Selbst bei 500.000 Iterationen wird es immer noch nicht konvergieren. Ich habe eine Trainingsdatenmatrix X mit dem Zielvektor Y und einen zu optimierenden Gewichtsvekt...
03.10.2013, 01:20
2
Antworten

Wie lässt sich die Lernrate und die Varianz eines Gradienten-Algorithmus bestimmen?

Ich habe letzte Woche angefangen, das maschinelle Lernen zu lernen. Wenn ich ein Gradientenskript erstellen möchte, um die Modellparameter zu schätzen, stieß ich auf ein Problem: Wie man eine angemessene Lernrate und Varianz auswählt. Ich fand,...
19.05.2013, 23:13
5
Antworten

Der Algorithmus für den Gradientenabstieg konvergiert nicht

Ich versuche, ein wenig Code für den Gradienten-Abstiegsalgorithmus zu schreiben, der in der Stanford Machine Learning-Vorlesung erläutert wurde (
16.10.2011, 08:45