adaboost

AdaBoost ist ein Lernalgorithmus für Meta-Maschinen. Es führt mehrere Trainingsrunden durch, in denen die besten Schwachklassifikatoren ausgewählt werden. Am Ende jeder Runde erhalten die noch nicht klassifizierten Trainingsproben ein höheres Gewicht, was zu einer stärkeren Fokussierung auf diese Proben während der nächsten Runde der Auswahl eines schwachen Klassifikators führt.
1
Antwort

Parameterauswahl in Adaboost

Nachdem ich OpenCV für Boosting verwendet habe, versuche ich meine eigene Version von% zu implementieren. co_de% Algorithmus (schau hier , hier und das Originalpapier für einige Referenzen). Beim Lesen des gesamten Materials habe ich e...
02.05.2013, 19:37
3
Antworten

Multilabel AdaBoost für MATLAB

Ich bin derzeit auf der Suche nach einer Multilabel-AdaBoost-Implementierung für MATLAB oder nach einer Technik zur effizienten Verwendung einer Zwei-Label-Implementierung für den Multilabel-Fall. Jede Hilfe in dieser Angelegenheit wäre willkomm...
07.08.2010, 18:15
1
Antwort

Wie normalisiert man eine Bildfarbe?

In ihrem Artikel beschreiben Viola-Jones-Objekterkennung -Rahmen (Robuste Echtzeit-Gesichtserkennung von Viola und Jones), heißt es:    Alle Beispiel-Unterfenster, die für das Training verwendet wurden, wurden um die Varianz normalisiert   ...
12.12.2012, 08:03
4
Antworten

Verwendung von adaboost mit Rs Caret-Paket

Ich habe das ada R-Paket seit einiger Zeit und in letzter Zeit caret verwendet. Gemäß der Dokumentation sollte caret s train() function eine Option haben, die ada verwendet. Aber Caret kotzt mich an, wenn ich dieselbe Syntax verwende...
11.10.2013, 17:04