knn

Bei der Mustererkennung ist k-nearest neighbourys (k-NN) ein Klassifikationsalgorithmus, der zur Klassifizierung eines Beispiels auf der Grundlage einer Reihe bereits klassifizierter Beispiele verwendet wird. Algorithmus: Ein Fall wird durch eine Mehrheitsentscheidung seiner Nachbarn klassifiziert, wobei der Fall der Klasse zugeordnet wird, die am häufigsten unter seinen K nächsten Nachbarn gemessen durch eine Abstandsfunktion ist. Wenn K = 1 ist, wird der Fall einfach der Klasse seines nächsten Nachbarn zugeordnet.
2
Antworten

Ist der k-d-Baum effizient für die kNN-Suche? k Nächsten Nachbarn suchen

Ich muss k nächsten Nachbarn suchen nach 10-dimensionalen Daten in kd-Baum. Aber das Problem ist, dass mein Algorithmus sehr schnell ist für k = 1, aber bis zu 2000x langsamer für k & gt; 1 (k = 2,5,10,20,100) Ist das normal für kd Bäume,...
09.01.2010, 17:24
3
Antworten

Wie werden sowohl binäre als auch kontinuierliche Features im k-Nearest-Neighbor-Algorithmus verwendet?

Mein Feature-Vektor hat sowohl kontinuierliche (oder weit reichende) als auch binäre Komponenten. Wenn ich einfach die euklidische Distanz verwende, haben die kontinuierlichen Komponenten eine viel größere Auswirkung: Symmetrisch gegenüber as...
30.11.2010, 14:38
7
Antworten

K Nächste Nachbar Algorithmus Zweifel

Ich bin neu in der Künstlichen Intelligenz. Ich verstehe K nearest neighbor Algorithmus und wie man es implementiert. Wie aber berechnen Sie die Entfernung oder das Gewicht von Dingen, die nicht auf einer Skala sind? Zum Beispiel kann die Ent...
29.03.2009, 17:09
1
Antwort

Unter Verwendung von Kosinus-Distanz mit scikit learn KNeighborsClassifier

Ist es möglich, so etwas wie 1 - Kosinusähnlichkeit mit dem KNeighborsClassifier von scikit learn zu verwenden? This Antwort sagt nein, aber auf der Dokumentation für KNeighborsClassifier heißt es Metriken, die in DistanceMetrics.html e...
07.12.2015, 22:36