avfoundation

Das AVFoundation-Framework bietet Objective-C- und Swift-Schnittstellen zum Bearbeiten und Abspielen von audiovisuellen Medien in einer Mac OSX- oder iOS-Anwendung. Fragen, die dieses Framework verwenden, sollten dieses Tag enthalten.
1
Antwort

Cache-Streaming-Video mit eingebettetem HTTP-Proxy?

Mehrere Personen haben versucht, vorgeladene Videodaten mit AVPlayer oder MPMoviePlayerController zu cachen, zum Beispiel Caching mit AVPlayer und AVAssetExportSession Greifen Sie auf die Daten von AVPlayer zu beim Abspielen von V...
03.12.2013, 18:55
3
Antworten

AVAssetWriter finishWithingWithCompletionHandler-Fehler mit unbekanntem Fehler

Ich habe seit über einer Woche mit diesem Problem gekämpft. Ich hoffe, dass jemand sieht, was ich falsch mache. Ich versuche, die finishWithingWithCompletionHandler: -Methode zu verwenden, da die finishWriting-Methode jetzt veraltet ist. Mit der...
08.02.2013, 04:48
3
Antworten

Quadratisches Zuschneiden und Fixieren der Videoausrichtung in iOS

Ich nehme das Video mit UIImagePickerController auf, kann das Video mit dem folgenden Code zuschneiden, %Vor% Aber ich weiß nicht, wie ich das Orientierungsproblem beheben kann. Wie Instagram und Reben App, (d. H.) Wenn ich das Video auch im...
14.11.2014, 14:59
4
Antworten

Tippen Sie auf Mikrofoneingang mit AVAudioEngine in Swift

Ich bin wirklich begeistert von der neuen AVAudioEngine. Es scheint wie ein guter API-Wrapper um Audio-Einheit. Leider ist die Dokumentation bisher nicht existent, und ich habe Probleme, einen einfachen Graphen zu erhalten. Wenn Sie den folge...
29.11.2014, 14:59
1
Antwort

Warum liefert die Aufnahme von Bildern mit AVFoundation 480x640 Bilder, wenn die Voreinstellung 640x480 ist?

Ich habe einen ziemlich einfachen Code, um ein Standbild mit AVFoundation aufzunehmen. %Vor% Meine Methode, die das Standbild aufnimmt, ist auch ziemlich einfach und gibt die Orientierung aus, die AVCaptureVideoOrientationPortrait: ist %Vo...
07.08.2011, 22:26
5
Antworten

Wie bekomme ich den Video-Frame des AVPlayers?

Ich habe PlayerView-Klasse für die Wiedergabe von AVPlayer. Code von Dokumentation . %Vor% Ich habe meinen AVPlayer (enthält Video-Assets der Größe 320x240) in dieser PlayerView eingerichtet (mit frame.size.width = 100, frame.size.height =...
23.08.2012, 12:12
1
Antwort

420YpCbCr8BiPlanarVideoRange zu YUV420? / Wie kopiere ich Y und Cbcr Ebene zu Single-Ebene?

Ich habe Video mit AVFoundation aufgenommen. Ich habe eingestellt (Video-Einstellung) und in Outputsamplebuffer kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange Format. Aber ich brauche YUV420-Format für die weitere Verarbeitung. Mein Zweifel...
11.06.2011, 08:35
6
Antworten

AVPlayerLayer animiert Rahmenänderungen

Immer wenn ich den Rahmen von AVPlayerLayer ändere, wird das Video nicht sofort skaliert, sondern auf die neue Größe animiert. Beispiel: Ich ändere den Rahmen von (0, 0, 100, 100) in (0, 0, 400, 400), der Rahmen der Ansicht wird sofort geände...
01.07.2011, 13:03
3
Antworten

So fügen Sie Live Camera Preview zu UIView hinzu

Ich stoße auf ein Problem, das ich versuche, innerhalb der UIView-Grenze zu lösen. Gibt es eine Möglichkeit, Kameravorschau zu UIView hinzuzufügen? Und fügen Sie anderen Inhalt oben auf dem UIView (Buttons, Label etc.) Hinzu? Ich versuche AVf...
12.02.2015, 20:28
1
Antwort

So wenden Sie Filter auf Video in Echtzeit mit Swift an

ist es möglich, einen Filter auf AVLayer anzuwenden und ihn view als addSublayer hinzuzufügen? Ich möchte die Farben ändern und etwas Rauschen in das Video von der Kamera mit Swift hinzufügen und ich weiß nicht wie. Ich dachte, das ist...
03.09.2015, 14:38