AdaBoost ist ein Lernalgorithmus für Meta-Maschinen. Es führt mehrere Trainingsrunden durch, in denen die besten Schwachklassifikatoren ausgewählt werden. Am Ende jeder Runde erhalten die noch nicht klassifizierten Trainingsproben ein höheres Gewicht, was zu einer stärkeren Fokussierung auf diese Proben während der nächsten Runde der Auswahl eines schwachen Klassifikators führt.
Nachdem ich OpenCV für Boosting verwendet habe, versuche ich meine eigene Version von% zu implementieren. co_de% Algorithmus (schau hier , hier und das Originalpapier für einige Referenzen).
Beim Lesen des gesamten Materials habe ich e...
02.05.2013, 19:37
Ich bin derzeit auf der Suche nach einer Multilabel-AdaBoost-Implementierung für MATLAB oder nach einer Technik zur effizienten Verwendung einer Zwei-Label-Implementierung für den Multilabel-Fall. Jede Hilfe in dieser Angelegenheit wäre willkomm...
07.08.2010, 18:15
In ihrem Artikel beschreiben Viola-Jones-Objekterkennung -Rahmen (Robuste Echtzeit-Gesichtserkennung von Viola und Jones), heißt es:
Alle Beispiel-Unterfenster, die für das Training verwendet wurden, wurden um die Varianz normalisiert
...
12.12.2012, 08:03
Ich habe das ada R-Paket seit einiger Zeit und in letzter Zeit caret verwendet. Gemäß der Dokumentation sollte caret s train() function eine Option haben, die ada verwendet. Aber Caret kotzt mich an, wenn ich dieselbe Syntax verwende...
11.10.2013, 17:04