Ich beginne gerade in Objective-C und versuche eine einfache App zu erstellen, in der die Kameraansicht mit einem Unschärfeeffekt angezeigt wird. Ich habe die Kamera-Ausgabe mit dem AVFoundation-Framework arbeiten lassen. Jetzt versuche ich, das Core-Bild-Framework zu verbinden, aber ohne zu wissen, wie das geht, Apple-Dokumentation ist verwirrend für mich und die Suche nach Anleitungen und Tutorials führt online zu keinen Ergebnissen. Vielen Dank im Voraus für die Hilfe.
%Vor% Hier ist etwas, mit dem Sie beginnen können. Dies ist eine aktualisierte Version des Codes vom folgenden Link.
Ссылка
Der Trick besteht darin, AVCaptureVideoDataOutputSampleBufferDelegate
zu verwenden.
Mit diesem Delegaten können Sie imageWithCVPixelBuffer
verwenden, um einen CIImage
aus Ihrem Kamerapuffer zu erstellen.
Im Moment versuche ich herauszufinden, wie ich die Verzögerung reduzieren kann. Ich werde so bald wie möglich aktualisieren.
Update: Die Latenz ist jetzt minimal und bei einigen Effekten unbemerkbar. Leider scheint es, dass Unschärfe eine der langsamsten ist. Vielleicht möchten Sie in vImage
suchen.
Tags und Links objective-c ios avfoundation cifilter ciimage