Wie werden die Disparitätsdaten in iOS normalisiert?

9

In der WWDC-Sitzung "Bildbearbeitung mit Tiefe" erwähnten sie einige Male normalizedDisparity und normalizedDisparityImage :

  

"Die Grundidee ist, dass wir unsere normalisierte Disparität abbilden werden   Werte in Werte zwischen 0 und 1 "

     

"Sobald Sie also die Min- und Max-Werte kennen, können Sie die Tiefe oder Disparität zwischen 0 und 1 normalisieren."

Ich habe versucht, das disparate Bild zuerst so zu bekommen:

%Vor%

Dann habe ich versucht, depthDataMap zu erhalten und die Normalisierung durchzuführen, aber es hat nicht funktioniert. Ich bin ich auf dem richtigen Weg? würde schätzen einige Hinweise auf was zu tun ist.

Bearbeiten:

Dies ist mein Testcode, Entschuldigung für die Qualität. Ich bekomme die min und max , dann versuche ich die Daten zu durchlaufen, um sie zu normalisieren ( let normalizedPoint = (point - min) / (max - min) )

%Vor%

Was ich erwartet habe, ist, dass die Daten die Disparität widerspiegeln, wo der Nutzer auf das Bild geklickt hat, aber nicht zusammenpasst. Der Code zum Auffinden der Disparität, auf die der Nutzer geklickt hat, ist hier :

%Vor%     
Jimmy 05.11.2017, 00:23
quelle

1 Antwort

1

Es gibt einen neuen Blogbeitrag auf raywenderlich.com mit dem Titel " Tutorial Bildtiefe Karten für iOS "enthält eine Beispiel-App und Details zum Arbeiten mit der Tiefe. Der Beispielcode zeigt, wie Sie die Tiefendaten mithilfe einer Erweiterung CVPixelBuffer normalisieren:

%Vor%

Bei der Arbeit mit Tiefendaten sollten Sie daran denken, dass sie eine geringere Auflösung als das tatsächliche Bild haben. Daher müssen Sie den Maßstab vergrößern (weitere Informationen finden Sie im Blog und im WWDC-Video )

    
Feras Alnatsheh 14.11.2017, 16:23
quelle

Tags und Links