Sie müssen ein Rechteck um jedes Auge im 3D-Raum definieren. Es sollte eine Möglichkeit geben, Augen mit dem Microsoft Kinect SDK zu verfolgen. Laut dies
Das Face Tracking SDK verwendet das Kinect-Koordinatensystem, um es auszugeben 3D-Tracking-Ergebnisse. Der Ursprung befindet sich an der Kamera optisch Mittelpunkt (Sensor), Z-Achse zeigt auf einen Benutzer, Y-Achse zeigt oben. Die Maßeinheiten sind Meter für die Übersetzung und Grad für Drehwinkel.
Hinzufügen
%Vor%CreateResult () in Microsoft.Kinect.Toolkit.FaceTracking druckt
%Vor%Wenn das SDK beginnt, ein Gesicht zu verfolgen. Ich sollte in der Lage sein, diese Koordinaten zu benutzen, um eine Box um jedes Auge zu malen die Z-Koordinate sollte wahrscheinlich näher bei 1,0 liegen, nicht bei -0,1 .. oder -0,2 .. (basierend auf meinem Setup), also traue ich den Zahlen nicht. Soll der XYZ der Ort des FeaturePoint im 3D-Raum relativ zum Sensor sein? Verkenne ich das Kinect-Koordinatensystem falsch? Benutze ich das Kinect SDK falsch? Ist es wichtig, dass ich einen Xbox 360 Kinect Sensor verwende? (Microsoft garantiert keine vollständige Kompatibilität für Kinect für Windows-Anwendungen und den Xbox 360 Kinect Sensor)
Bearbeiten: Hinzufügen dieses
%Vor%zu FaceTracker.cs :: Track () druckt dies
%Vor%Diese Zahlen scheinen basierend auf dem Setup korrekt zu sein. Die FeaturePoints werden nur einmal gedruckt, aber die HeadPoints werden kontinuierlich gedruckt, während TrackSucceeded. Sind FeaturePoint-Werte relativ zum HeadPoint?
Tags und Links c# kinect eye-tracking kinect-sdk