web-audio

Web Audio ist eine Javascript-API, die in HTML5-fähigen Webbrowsern Funktionen für die Wiedergabe, Bearbeitung und Bearbeitung von Audiodateien mit niedriger Latenz, niedriger Latenz bietet.
1
Antwort

Starten Sie die Wiedergabe einer geladenen Audiodatei in der Mitte mit Chrome webkitAudioContext?

Ich arbeite mit der Chrome-Webaudio-API und webkitAudioContext, um Loops zu spielen. Ich habe mehrere Loops, die ich zwischenzeitlich überspiele, ähnlich dem Beispiel Digital DJ Chrom Blog. In ihrem Beispiel schalten sie die Samples um, wen...
15.10.2011, 23:27
1
Antwort

Web-Audio-API: Planen von Sounds und Exportieren der Mischung

Ich habe die Web-Audio-API-Dokumentation und die Lernprogramme überprüft, aber ich habe noch nicht herausgefunden, wie ich dieses Problem angehen kann. Nehmen wir an, ich lade über XMLHttpRequest einige WAV-Dateien und erstelle dann Pufferque...
06.06.2013, 18:12
1
Antwort

Offline / Non-Realtime Rendering mit der Web Audio API

Das Problem Ich arbeite an einer Webanwendung, bei der Benutzer Audio-Samples sequenzieren und optional Effekte auf die Musikmuster anwenden können, die sie mit der Web Audio API erstellen. Die Muster werden als JSON-Daten gespeichert, und ic...
27.11.2012, 18:48
1
Antwort

Wie kann ich Audiodateien kodieren und segmentieren, ohne Lücken (oder Audio-Popups) zwischen Segmenten zu haben, wenn ich sie rekonstruiere?

Ich arbeite an einer Webanwendung, die das Streamen und Synchronisieren mehrerer Audiodateien erfordert. Dazu verwende ich die Web-Audio-API über HTML5-Audio-Tags wegen der Wichtigkeit des Timings von Audio. Momentan verwende ich FFMPEGs Se...
13.02.2013, 03:35
1
Antwort

Aufnahme von Audio von mehreren Mikrofonen gleichzeitig mit getUserMedia ()

Mit getUserMedia() ? kann gleichzeitig auf verschiedene Mikrofone zugegriffen werden Dies ist nützlich für Hintergrundgeräusche herausfiltern; erzeugt eine Art stereoskopischen Effekt; stellen mehrere Audiotracks für einen internati...
18.02.2015, 11:04
1
Antwort

OfflineAudioContext FFT-Analyse mit Chrome

Ich versuche, einen Wellenformgenerator zu erstellen, der Audiodateiamplitudenwerte erhält und sie so schnell wie möglich (schneller als Echtzeit) in einer Leinwand anzeigt. Also benutze ich den OfflineAudioContext / webkitOfflineAudioContext, l...
09.01.2014, 04:39
1
Antwort

Chrome: Ein Audioprozess wird nach einer Weile nicht mehr aufgerufen

Ich verwende ScriptProcessorNodes Onaudioprozess-Rückruf, um den Mikrofoneingang zu verarbeiten. Durch Verbinden von MediaStreamSourceNode mit dem ScriptProcessorNode kann ich die Rohaudio-Daten innerhalb der Onaudioprocess-Callback-Funktion erh...
21.06.2014, 04:01