Das ist also eine eher theoretische Frage / Diskussion, da ich nicht in der Lage war, zu einer klaren Antwort zu kommen und andere SO-Posts und Quellen aus dem Internet zu lesen. Es scheint, als gäbe es viele Optionen:
Brad Larson's Kommentar über AVFoundation
Beschleunigung der Videodecodierung
Wenn ich Hardware-Dekodierung unter iOS für H.264 (mov) -Dateien durchführen möchte, kann ich einfach AVFoundation und AVAsssets verwenden, oder sollte ich VideoToolbox (oder ein anderes Framework) verwenden. Wie kann ich bei Verwendung eines Projekts die Hardwareleistung profilieren / benchmarken? - Betrachtet man einfach die CPU-Auslastung im "Debug Navigator" in XCode?
Kurz gesagt, ich frage im Grunde, ob AVFoundation & amp; AV-Assets führen Hardware-Codierung durch oder nicht? Sind sie ausreichend und wie benchmarkiere ich die tatsächliche Leistung?
Danke!
Wenn Sie eine lokale Datei dekodieren möchten, die sich bereits auf Ihrem iOS-Gerät befindet, würde ich AVFoundation verwenden.
Wenn Sie einen Netzwerk-Stream (RTP oder RTMP) dekodieren möchten, verwenden Sie die Video Toolbox - da Sie den Video-Stream selbst entpacken müssen.
Mit AVFoundation oder Video Toolbox erhalten Sie Hardware-Decodierung.
Tags und Links ios avfoundation h.264 video-toolbox