Ich muss Screen Sharing mit WebRTC implementieren. Ich weiß, dass WebRTC das Teilen von Tab-Inhalten unterstützt, aber ich muss den gesamten Bildschirm teilen. Eine Lösung, an die ich denke, ist, häufig Screenshots zu machen und den WebRTC-Datenkanal zu verwenden, um das Bild an andere Teilnehmer zu übertragen. Die andere Partei aktualisiert das Bild dann jedes Mal, wenn ein neues Bild empfangen wird.
Ist das möglich? Besonders frage ich mich, ob es möglich ist, Bilder mit dem WebRTC-Datenkanal zu übertragen?
Vielen Dank im Voraus.
getUserMedia unterstützt das Screensharing des gesamten Bildschirms, nicht nur den Tab-Inhalt.
Ich habe eine Screenshot-Demo gemacht (mit der obligatorischen Einschränkung chromeMediaSource: 'screen'), die den Stream in eine RTCPeerConnection pipettiert: Ссылка .
Die chrome.tabCapture API erhält Tab-Content, aber das ist natürlich nicht das, was Sie wollen: Beispiel hier (obwohl der Code jetzt gebrochen ist).
EDIT: HTTPS zu Links hinzugefügt: Dies ist für screencapture erforderlich.
Screensharing ist über eine experimentelle Conversion getUserMedia
in Chrome verfügbar ( noch nicht in Firefox verfügbar ).
Sie müssen zuerst das Flag Enable screen capture support in getUserMedia()
in chrome://flags
aktivieren.
Es gibt ein schönes Beispiel dafür, wie Sie den Bildschirm hier aufnehmen können: Ссылка .
Sehen Sie sich diese Chrome-Erweiterung an, sie hat Desktop-Sharing implementiert und ist ziemlich gut. Ссылка
Tags und Links video-streaming webrtc screensharing