Ich versuche eine Webanwendung zu erstellen, die ein Audio im Browser streamt (ohne Plugins), mit der Möglichkeit, dass andere Benutzer sich auf www.mysite.com und dem Audio anmelden können wird von der aktuellen Audio-Position des Hosts (synchronisiertes Audio, das zwischen Server und Clients abgespielt wird) gleichzeitig an jeden verbundenen Benutzer gestreamt.
Was muss ich tun, um so etwas zu implementieren? Ich arbeite gerade an einem Node.js / Express Projekt, habe aber Stream oder Buffer API nicht berührt. Muss ich das verwenden? Und was ist mit WebRTC? Ist es hier anwendbar?
Ich habe schon vor einiger Zeit über WebRTC in ähnlicher Verwendung nachgedacht. Es ist eine der Lösungen zum Erstellen eines WebRTC-Peers in einer Server-Side-Node-Anwendung. Ich habe so etwas noch nie gemacht, aber überprüfe diese Frage: