web-audio-api相关内容
我同时使用网络音频 api 加载并播放了多个声音.有没有办法阻止所有声音? 例如:现在停止所有声音的按钮. 由于我同时播放了 10 个以上的声音,我不想为每个声源手动使用 noteOff(0) (或 stop(0) ). 解决方案 那么,实现你想要的效果的最简单方法是将它们全部 connect() 到一个增益节点,然后连接到目的地,并设置增益.增益.值 = 0. 当然,它
..
所以我有一堆加载的音频样本,我在下面的代码中调用调度函数: 让音频;函数 playChannel() {让 audioStart = context.currentTime;让下一个 = 0;for(let i = 0; i 这是音频调度器功能: function scheduler(audioStart, index) {音频 = context.createBufferSource()
..
我的应用程序中有一个预先录制的音频文件的音频缓冲区.我正在尝试获取整个音轨的频域数据,这是我尝试过的: getAudioDataFromBuffer: function(buf){var src = g.audioContext.createBufferSource();src.buffer = buf;var anal = src.context.createAnalyser();src.co
..
所以,我认为这是一个相当有趣的问题,希望不是棘手的问题.我有一个正在 Chrome 中录制的音频/视频 getUserMedia 流.单独来看,曲目记录非常好.然而,当试图同时记录两者时,一个阻塞主线程,另一个阻塞主线程.我知道有办法解决这个问题.Muaz Khan 有一些演示似乎可以无阻塞地工作. 音频是通过 网络音频 API 录制的.我正在将音轨传输到处理器节点,该节点将其转换为 16b
..
我有一个奇怪的问题.我正在使用网络音频播放来自服务器的流.我这样做的方式如下: var d2 = new DataView(evt.data);var data = new Float32Array(d2.byteLength/Float32Array.BYTES_PER_ELEMENT);for (var jj = 0; jj
..
我正在使用 webkit Audio API 并尝试创建一个回声效果,以实现我在循环中将 DelayNode 与 GainNode 连接起来(一个的输出是另一个的输入,反之亦然). 效果很好,但现在我想创建一个 EchoNode 对象,我可以插入它并与其他 AudioNode 对象连接. 类似于: myEchoNode = new EchoNode();myConvolverNode
..
我一直在尝试在 React 中设置音频标签的 src 属性,但曲目从未播放. playTrack(track) {const 流 = 新 MediaStream()stream.addTrack(track)this.setState(() => ({流}))}使成为() {返回 (
..
编辑:这篇文章与矿.我正在尝试将音频数据提取为二进制文件,像我之前提到的那样单独播放音频文件没有问题. 我正在尝试使用 网络音频 Api. var audioContext = new(window.AudioContext || window.webkitAudioContext)();fileData = new Blob([input.files[0]]);var videoFile
..
所以我想我很了解getFloatFrequencyData.如果 getFloatFrequencyData 返回一个包含 1024 个值的数组,每个值代表一个频率区间/范围的音量.在采样率为 44.1 的 1024 个值的情况下,每个值将代表大约 20 赫兹频率范围的音量. 现在 getFloatTimeDomainData 怎么样?假设我有 2048 个值,每个值代表什么? 与理解
..
我可以通过以下方式使用 Chrome 的语音合成 API(版本 33.0.1750.112 beta-m)从文本生成语音 var script = document.getElementById("speechTxt").value;var msg = new SpeechSynthesisUtterance(transcript);SpeechSynthesis.speak(msg); 现在
..
我有由 webaudio API 生成的 blob 类型,但保存的文件必须具有高采样率.我怎样才能将它转换为较低的可能类似于 https://developer.mozilla.org/en-US/docs/Web/API/OfflineAudioContext 可以提供帮助吗?下面是一些代码示例: var xhr = new XMLHttpRequest();/* 这里有一些转换到较低的速率
..
到目前为止,我找到了一种只能使用 MediaRecorder API 记录本地或远程的方法,但是否可以混合和记录两个流并获得一个 blob? 请注意它只是音频流,我不想在服务器端混音/录制. 我有一个 RTCPeerConnection 作为 pc. var local_stream = pc.getLocalStreams()[0];var remote_stream = pc.g
..
是否可以将来自 Web Speech API 的合成语音用作 Web Audio API 的音频上下文中的 SourceNode? 解决方案 我实际上询问过是否将其添加到 Web Speech 邮件列表中,但基本上被告知“不".公平地对待邮件列表上的人,我无法在收到提示时想到一两个以上的特定用例. 因此,除非他们在过去一个月左右更改了某些内容,否则这听起来不是计划中的功能.
..
我使用 wavesurfer.js 创建了一个多轨网络播放器,它可以调整不同轨道的电平和平移. 我想要做的是将具有新级别和平移的混合轨道导出为单个 .wav 文件. 我对此进行了一些研究,很多人都指向 https://github.com/mattdiamond/Recorderjs 但开发在 4 年前就停止了,我发现它似乎有很多问题. 像这样初始化它 var rec = new
..
我正在使用 wavesurfer.js 在线创建一个多轨播放器,并希望导出带有级别平移等的组合曲目的混音版本. 首先,我有一个 audioFiles 数组,并使用它来创建一个 wavesurfer 元素数组. for(var i=0; i 然后我从 wavesurfer 后端为每一个创建一个缓冲区 for(var i=0; i 最后我在下载功能方面得到了一些帮助 从网络下载经过wav
..
我正在开发这个可视化工具 http://trif.it,它在 Chrome Stable (41.x) 但在 Chrome Dev、Beta 和 Canary(42.x 及更高版本)中停止工作,因为 Chrome(以及之前的 Firefox)处理要分析的音频源的方式发生了变化. 这是有问题的代码.在您删除处理音频路由的最后一部分的注释之前,它应该可以正常工作. var audioEleme
..
我正在尝试使用 BinaryJS 将音频从包含音频文件的服务器流式传输到客户端.我的代码的灵感来自这个问题中的代码:Playing来自 Node.js 上的 Web Audio API 的 PCM 流 这是我的服务器代码的样子: //使用 BinaryJS 创建一个 BinaryServervar BinaryServer = require('binaryjs').BinaryServe
..
我正在尝试通过 node.js (express) 服务器上的 websocket 将音频流式传输到 Web 浏览器.音频来自 iOS 设备,为 16 位单声道 wav 文件,采样率为 4k(每秒 4000 个样本). 这是我的代码: 服务器代码: webSocketServer.on('connection', function connection(client) {client
..
我目前在使用 Safari 10.1 中的 Tone.Analyzer 时遇到问题.使用 size > 初始化 Tone.Analyzer 时Math.pow(2, 10) (1024) 我收到以下错误:IndexSizeError (DOM Exception 1): 索引不在允许范围内. 我也将此提交到 ToneJS 存储库,但我感觉这更像是 Safari 中的一个错误,对吧? 代
..
我已经在 React 中成功实例化了一个简单的 AudioWorklet,并希望像 Google 的示例中那样启动一个简单的振荡器.为了测试运行它,我正在渲染一个按钮,其 onClick 事件调用以下内容: src/App.jsx: userGesture(){//创建一个新的音频上下文this.context = new AudioContext();//将我们的处理器模块添加到Audi
..