Ich versuche den wahrscheinlichsten Pfad (d. h. eine Sequenz von Zuständen) auf einem HMM unter Verwendung des Viterbi-Algorithmus zu finden. Allerdings kenne ich die Übergangs- und Emissionsmatrizen, die ich aus den Beobachtungen (Daten) schätzen muss, nicht.
Um diese Matrizen zu schätzen, welchen Algorithmus sollte ich verwenden: den Baum-Welch- oder den Viterbi-Trainingsalgorithmus? Warum?
Falls ich den Viterbi-Trainingsalgorithmus verwenden sollte, kann mir jemand einen guten Pseudocode zur Verfügung stellen (es ist nicht leicht zu finden)?
Wenn genügend Ressourcen zur Verfügung stehen, sollten Sie wahrscheinlich den Baum-Welch-Algorithmus (Vorwärts-Rückwärts-Algorithmus) über den Viterbi Training -Algorithmus (ein segmentierter k-Means-Algorithmus) verwenden, der ein alternativer Parameterschätzungsprozess ist opfert einige von Baum-Welchs Allgemeinheit für die rechnerische Effizienz. Im Allgemeinen wird der Baum-Welch-Algorithmus Parameter geben, die zu einer besseren Leistung führen, obwohl es Fälle gibt, in denen dies ist nicht der Fall. Hier ist eine schöne vergleichende Studie .
Beachten Sie außerdem, dass Sie den Baum-Welch-Algorithmus verwenden sollten, um die Parameter des Modells zu schätzen. Dies stellt die Emissionswahrscheinlichkeit und die Transmissionswahrscheinlichkeiten unter Verwendung von etwas ein, das dem EM-Algorithmus ähnlich ist. Nachdem Sie das HMM trainiert haben, verwenden Sie den Algorithmus Viterbi Decodierung , um die wahrscheinlichste Sequenz von Zuständen zu berechnen, die Ihre Beobachtungen generiert haben könnten.
Referenzweise würde ich Sprach- und Sprachverarbeitung empfehlen, Künstliche Intelligenz ein moderner Ansatz oder dieses Papier
Von Zypern :
Viterbi Training ist, im Vergleich zu Baum-Welch:
- Viel schneller
- Aber funktioniert nicht ganz so gut
- Aber der Kompromiss ist es oft wert.
Einige vergleichende Studien:
Rodríguez, Luis Javier und Inés Torres. " Vergleichende Studie der Baum-Welch- und Viterbi-Trainingsalgorithmen zum Lesen und spontane Spracherkennung . " In der Iberischen Konferenz über Mustererkennung und Bildanalyse, S. 847-857. Springer Berlin Heidelberg, 2003.
Die gleiche Frage wurde beim Statistics Stack Exchange gestellt: Unterschiede zwischen Baum-Welch und Viterbi-Training . p>
Tags und Links algorithm hidden-markov-models viterbi expectation-maximization