Wie viele andere Entwickler habe ich mich in die neue ARKit-Technologie von Apple gestürzt. Es ist großartig. Für ein bestimmtes Projekt möchte ich jedoch (reale Bilder) in der Szene erkennen, entweder etwas darauf projizieren (so wie es Vuforia mit seinen Zielbildern macht) oder es verwenden, um ein Ereignis in der Szene auszulösen meine Bewerbung.
In meiner Forschung, wie ich das erreichen kann, stolperte ich über die Vision- und CoreML-Frameworks von Apple. Dies scheint vielversprechend, obwohl ich noch nicht in der Lage war, meinen Kopf darum zu wickeln.
Wie ich es verstehe, sollte ich in der Lage sein, genau das zu tun, was ich möchte, indem ich Rechtecke mit dem Vision-Framework suche und diese in ein CoreML-Modell einfüge, das es einfach mit den Zielbildern vergleicht, die ich im Modell vordefiniere. Es sollte dann in der Lage sein, das gefundene Zielbild auszuspucken.
Obwohl das in meinem Kopf gut klingt, habe ich noch keinen Weg gefunden, dies zu tun. Wie würde ich ein solches Modell erstellen, und ist das überhaupt möglich?
Ab ARKit 1.5 (das im Frühjahr 2018 mit IOS 11.3 geliefert wurde) scheint ein Feature direkt auf ARKit implementiert zu sein, das dieses Problem löst.
ARKit unterstützt die Bilderkennung vollständig. Nach der Erkennung eines Bildes können die 3D-Koordinaten als Anker abgerufen werden, und daher kann Inhalt auf ihnen platziert werden.
Ich habe dieses Projekt vor einigen Wochen auf Github gefunden: AR-Kit-Rechteckerkennung
Ich denke, das ist genau das, wonach Sie suchen ...