Mehrere SIFT-Algorithmus , aber alle scheinen auf einen einfachen Vergleich zwischen zwei Bildern fokussiert zu sein. Anstatt zu bestimmen, wie ähnlich zwei Bilder sind, wäre es praktisch, SIFT zu verwenden, um das am besten übereinstimmende Bild aus einer Sammlung von Tausenden von Bildern zu finden? Mit anderen Worten, ist SIFT skalierbar?
Zum Beispiel wäre es praktisch, mit SIFT Schlüsselpunkte für einen Stapel von Bildern zu generieren, die Schlüsselpunkte in einer Datenbank zu speichern und dann diejenigen zu finden, die den kürzesten euklidischen Abstand zu den für ein "Abfrage" -Bild erzeugten Schlüsselpunkten haben ?
Wenn Sie die euklidische Entfernung berechnen, würden Sie die Teile x, y, Skalierung und Ausrichtung der Schlüsselpunkte ignorieren und nur auf den Deskriptor schauen?
Es gibt verschiedene Ansätze.
Ein beliebter Ansatz ist die so genannte Bag of Word-Repräsentation, die nur auf der Übereinstimmung der Deskriptoren basiert und somit den Ortsteil aus (x, y, Skalierung und Orientierung) ignoriert und nur den Deskriptor betrachtet.
Bei der effizienten Abfrage einer großen Datenbank werden möglicherweise ungefähre Methoden wie lokalisierungssensitives Hashing
Andere Methoden können Vokabeltrainer oder andere Datenstrukturen beinhalten.
Eine effiziente Methode, die auch Standortinformationen berücksichtigt, finden Sie in Pyramidenspielkernen
Tags und Links computer-vision machine-learning pattern-matching sift image-comparison