In der WWDC-Sitzung "Bildbearbeitung mit Tiefe" erwähnten sie einige Male normalizedDisparity
und normalizedDisparityImage
:
"Die Grundidee ist, dass wir unsere normalisierte Disparität abbilden werden Werte in Werte zwischen 0 und 1 "
"Sobald Sie also die Min- und Max-Werte kennen, können Sie die Tiefe oder Disparität zwischen 0 und 1 normalisieren."
Ich habe versucht, das disparate Bild zuerst so zu bekommen:
%Vor%Dann habe ich versucht, depthDataMap zu erhalten und die Normalisierung durchzuführen, aber es hat nicht funktioniert. Ich bin ich auf dem richtigen Weg? würde schätzen einige Hinweise auf was zu tun ist.
Bearbeiten:
Dies ist mein Testcode, Entschuldigung für die Qualität. Ich bekomme die min
und max
, dann versuche ich die Daten zu durchlaufen, um sie zu normalisieren ( let normalizedPoint = (point - min) / (max - min)
)
Was ich erwartet habe, ist, dass die Daten die Disparität widerspiegeln, wo der Nutzer auf das Bild geklickt hat, aber nicht zusammenpasst. Der Code zum Auffinden der Disparität, auf die der Nutzer geklickt hat, ist hier :
%Vor% Es gibt einen neuen Blogbeitrag auf raywenderlich.com mit dem Titel " Tutorial Bildtiefe Karten für iOS "enthält eine Beispiel-App und Details zum Arbeiten mit der Tiefe. Der Beispielcode zeigt, wie Sie die Tiefendaten mithilfe einer Erweiterung CVPixelBuffer
normalisieren:
Bei der Arbeit mit Tiefendaten sollten Sie daran denken, dass sie eine geringere Auflösung als das tatsächliche Bild haben. Daher müssen Sie den Maßstab vergrößern (weitere Informationen finden Sie im Blog und im WWDC-Video )