Wie wird ein CIFilter in eine Kameraansicht ausgegeben?

8

Ich beginne gerade in Objective-C und versuche eine einfache App zu erstellen, in der die Kameraansicht mit einem Unschärfeeffekt angezeigt wird. Ich habe die Kamera-Ausgabe mit dem AVFoundation-Framework arbeiten lassen. Jetzt versuche ich, das Core-Bild-Framework zu verbinden, aber ohne zu wissen, wie das geht, Apple-Dokumentation ist verwirrend für mich und die Suche nach Anleitungen und Tutorials führt online zu keinen Ergebnissen. Vielen Dank im Voraus für die Hilfe.

%Vor%     
Renz Tan 17.04.2015, 06:55
quelle

1 Antwort

10

Hier ist etwas, mit dem Sie beginnen können. Dies ist eine aktualisierte Version des Codes vom folgenden Link.
Ссылка

Der Trick besteht darin, AVCaptureVideoDataOutputSampleBufferDelegate zu verwenden.
Mit diesem Delegaten können Sie imageWithCVPixelBuffer verwenden, um einen CIImage aus Ihrem Kamerapuffer zu erstellen.

Im Moment versuche ich herauszufinden, wie ich die Verzögerung reduzieren kann. Ich werde so bald wie möglich aktualisieren.

Update: Die Latenz ist jetzt minimal und bei einigen Effekten unbemerkbar. Leider scheint es, dass Unschärfe eine der langsamsten ist. Vielleicht möchten Sie in vImage suchen.

%Vor%     
Roecrew 17.04.2015 21:13
quelle