Warum funktioniert lineares svms gut mit HoG-Deskriptoren?

9

Ok, fast alle Anwendungen, die ich mit HoG-Funktionen benutzt habe, benutzen lineares svm als Klassifikator. Kann mir jemand erklären, warum lineare SVM gewählt werden und warum sie gute Leistung bringen?

Wird lineares SVM gewählt, weil es einfacher und einfacher zu trainieren ist als svms, die einen polynomialen oder gaußschen Kernel verwenden und diese Kernel keine wesentlich bessere Leistung bieten?

    
krunarsson 28.06.2014, 20:21
quelle

4 Antworten

1

Weitere Informationen finden Sie in der Zeitschrift " Warum funktionieren lineare SVMs, die mit HOG-Funktionen trainiert wurden, so gut? " Hilton Bristow, Simon Lucey (2014)

    
Sayali Sonawane 09.08.2016 15:49
quelle
0

Linear oder Nichtlinear ist keine Frage von HOG oder anderen Features. Es bezieht sich einfach auf die Anzahl der Instanzen + Anzahl der Cluster + Anzahl der Feature-Dimensionen. Im Allgemeinen sind lineare Modelle für Datensätze mit mehr Feature-Dimensionen als Instanzen bevorzugt. Wenn der Fall umgekehrt ist, sollten Sie nicht-lineare SVM-Kernel verwenden, da sie Ihre Daten implizit in einen anderen Bereich projizieren, in dem Ihre Instanzen wiederum mit mehr Dimensionen dargestellt werden.

In den meisten Fällen erhalten Sie eine sehr gute Anzahl von Feature-Dimensionen, indem Sie HOG auf Bilder anwenden. Daher können Sie einfach lineare Modelle verwenden. Wenn Sie jedoch 100000 ... Klassen und 10000000 ... Bilder haben, wird HOG + Linear-Modell nicht angezeigt. Daher verwendet zum Beispiel niemand in ImageNet Challenge HOG mit linearen SVM.

    
erogol 13.02.2015 14:54
quelle
0

Persönlich habe ich noch nie mit Histogram of Gradients gearbeitet, aber in Ihrem Fall würde ich auswerten, ob Ihre HoG-Daten linear diskriminiert werden. Ich würde nicht einfach davon ausgehen, dass wenn man einen linearen Klassifikator für HoG benutzt, weil man es sollte. Bewerten Sie diese Aussage kritisch.

Versuchen Sie Folgendes: Projizieren Sie ein HoG-Dataset mit LDA und führen Sie dann ein Streudiagramm des transformierten Feature-Space aus. Überprüfen Sie, ob es möglich ist, eine Hyperebene mit maximalem Abstand zu verwenden, um zwischen den Klassen zu unterscheiden.

    
jcfgonc 14.04.2015 23:51
quelle
0

Es ist die Geschwindigkeit, die wirklich zählt. Kernel SVM kann unabhängig von der verwendeten Funktion eine bessere Erkennungsleistung erzielen. Aber Kernel SVM ist zeitaufwendig, besonders für gleitende Fensterdetektoren, in denen der Klassifikator viele Male ausgewertet wird. So wird oft lineares SVM in der Objekterkennung gewählt. HOG ist ein guter Deskriptor für die Objekterkennung und eine gute Leistung kann mit linearer SVM erreicht werden. Man kann eine noch bessere Leistung mit Kernel-SVM erwarten, wenn die Rechenkomplexität nicht berücksichtigt wird.

    
Liang Xiao 09.04.2016 14:17
quelle