Ich versuche, WebRTC zu verstehen. Ich muss Live-Audio über einen Webbrowser erfassen und streamen können.
Ich habe nur Schwierigkeiten, die Code-Beispiele zu finden, die ich verstehen kann oder auf dem neuesten Stand ist. Wenn mir jemand helfen könnte, zuerst Audio im selben Browser mit HTML5 / WebRTC zu erfassen und abzuspielen, würde das mir helfen, mich auf den Weg zu machen.
Hinweis: Mir geht es nur darum, dass dies in Chrome (oder Chrome Canary für diese Angelegenheit!) funktioniert.
Danke für jede Hilfe!
Der HTML5 Rocks-Artikel auf WebRTC ist wahrscheinlich der beste Intro-Artikel, der alles in Laienform erklärt .
Wenn Sie nur lokales Video / Audio aufnehmen möchten, sollten Sie sich auf die MediaStream-API (d. h. getUserMedia) konzentrieren. Sobald dies funktioniert, müssen Sie sich mit der RTCPeerConnection-API befassen.
Der clientseitige Code für die RTCPeerConnection-API ist ziemlich einfach, aber der für die Signalisierung erforderliche serverseitige Code (d. h. das Herstellen einer Peer-to-Peer-Verbindung) kann knifflig sein.
Am Ende habe ich meine eigene serverseitige Lösung in PHP programmiert, aber dafür brauchte ich etwa drei Wochen, um meinen Kopf gegen die Wand zu schlagen (dh die WebSocket-Spezifikationen ), damit es richtig funktioniert. Wenn Sie den tatsächlichen Code sehen möchten, kann ich einen Teil meines Arbeitscodes veröffentlichen.
Wenn Sie für die Herausforderung bereit sind, empfehle ich, das serverseitige Skript selbst zu programmieren, aber ansonsten würde ich in WebSocket-Bibliotheken wie Socket.IO schauen, die all die kniffligen Dinge auf der Serverseite für Sie erledigen.
Wenn Sie über WebRTC Live Audio Streaming / Broadcast sprechen und nicht nur über Peer-to-Peer-Anrufe, ist WebRTC nicht für Broadcasts ausgelegt. Hier finden Sie WebRTC - skalierbare Livestream-Übertragung / Multicasting
Tags und Links html5 html5-audio webrtc