AVFoundation vs VideoToolbox - Hardware-Codierung

8

Das ist also eine eher theoretische Frage / Diskussion, da ich nicht in der Lage war, zu einer klaren Antwort zu kommen und andere SO-Posts und Quellen aus dem Internet zu lesen. Es scheint, als gäbe es viele Optionen:

Brad Larson's Kommentar über AVFoundation

Beschleunigung der Videodecodierung

VideoToolbox

Wenn ich Hardware-Dekodierung unter iOS für H.264 (mov) -Dateien durchführen möchte, kann ich einfach AVFoundation und AVAsssets verwenden, oder sollte ich VideoToolbox (oder ein anderes Framework) verwenden. Wie kann ich bei Verwendung eines Projekts die Hardwareleistung profilieren / benchmarken? - Betrachtet man einfach die CPU-Auslastung im "Debug Navigator" in XCode?

Kurz gesagt, ich frage im Grunde, ob AVFoundation & amp; AV-Assets führen Hardware-Codierung durch oder nicht? Sind sie ausreichend und wie benchmarkiere ich die tatsächliche Leistung?

Danke!

    
royherma 14.07.2015, 17:46
quelle

1 Antwort

1

Wenn Sie eine lokale Datei dekodieren möchten, die sich bereits auf Ihrem iOS-Gerät befindet, würde ich AVFoundation verwenden.

Wenn Sie einen Netzwerk-Stream (RTP oder RTMP) dekodieren möchten, verwenden Sie die Video Toolbox - da Sie den Video-Stream selbst entpacken müssen.

Mit AVFoundation oder Video Toolbox erhalten Sie Hardware-Decodierung.

    
Markus Schumann 10.11.2016 16:49
quelle