web-audio-api相关内容
我正在尝试编写一个 React Hook 来处理流式音频到使用 Meyda 分析的 AudioContext. https://meyda.js.org/ 我已经设法让流工作并且能够提取我想要的数据.但是,我在取消初始化音频时遇到了麻烦. 如果有人可以为我提供正确设置此挂钩的指导,我将不胜感激. 当我使用这些挂钩离开页面时,我目前收到以下错误: 警告:无法对已卸载的组
..
我正在制作一个小音乐应用.我希望能够在不依赖麦克风的情况下录制浏览器中发出的声音.到目前为止,我所看到的关于 MediaRecorder api 的所有内容都表明它依赖麦克风.理想情况下,我希望在不使用外部库的情况下实现这一目标. 作为参考,这里是我如何制作一个非常简单的声音. var congo = new Audio('http://www.denhaku.com/r_box/sr16
..
getUserMedia(constrains).then(stream => {var recorder = new MediaRecorder(stream)})recorder.start()recorder.pause()//获取新流 getUserMedia(constrains_new)//这里如何更新记录器流?recorder.resume() 有可能吗?我尝试创建 MediaSt
..
我想录制一个从不同 mediaStream 对象(其中一些,远程)获取多个音轨的录音.使用 getAudioTracks() 方法并使用 addTrack() 将它们添加到 mediaStream 对象.在将最后一个对象作为 mediaRecorder 的参数传递时,我意识到它只记录位于 [0] 位置的音轨.这让我明白 mediaRecorder 能够按类型录制曲目,有没有办法将这些曲目合并为一个
..
我正在尝试使振荡器在鼠标放在画布上时播放,而在没有鼠标时停止播放.但是,使用当前代码,页面加载后仅工作一次,当鼠标第二次出现在画布上时会发生错误: “未捕获的InvalidStateError:无法在'OscillatorNode'上执行'start':不能多次调用start. var ac =新窗口.AudioContext()||新window.webkitAudioContext(
..
我目前正在使用音频可视化,并且正在尝试使用Spotify的Web Playback SDK来直接在我的网站上流式播放和分析歌曲. 但是,我不确定实际读取流式数据时的局限性.我注意到为Spotify播放器生成了一个iframe,并且我读到Spotify使用加密的媒体扩展名在chrome上流式传输音频. 是否甚至可以从Spotify api中读取音乐数据?也许我可以从浏览器中读取输出的音频
..
我们目前正在开发一个网站,允许用户播放连接到音频上下文的简单音频标签.我们知道IOS的技术问题,例如由用户手势启动的播放.一切正常,直到IOS12.现在IOS13已经发布了,什么都没有了. 它适用于所有台式机,Android和IOS(最高IOS13). 有什么想法吗? 使用连接到iPhone的Desktop上的Safari进行调试时,控制台中没有错误消息. https://
..
我正在尝试根据浏览器窗口中的某些传感器读数以不同的速率播放“哔"声. 该想法是在传感器读数较高时“嘟嘟",“哔哔",“哔哔","...哔哔"更快,而在传感器读数低时“嘟嘟......哔哔"较慢,这都是实时的. 传感器读数通过socket.io输入到浏览器中.我已经可以控制进度栏的上下移动.音频反馈是一项额外功能. 经过一番谷歌搜索之后,我正在考虑使用Web音频api,创建一个正弦
..
给出一个简单的30秒的网络视频: 如何生成其音量水平图? volume |级别|******|* * **|* * * **| ** * *** *|** * * * *+ --------------- *-* ----- ************ ------ + ---时间0 30秒视频很安静这里很大声
..
我一直在使用Web Audio API,并使用笔记本电脑的麦克风作为输入源.但是,当我听输入时,我会听到很多白噪声.如何创建过滤器以减少噪音,使声音更清晰?是否有任何库可以针对这种情况提供预先编写的噪声滤波器? 解决方案 'm在某些POC上工作,并使用BiquadFilter减少了笔记本电脑的“烦恼".我也使用过压缩机,但是您不必)) (function(){var过滤器,压缩器,med
..
我有多个音频文件,必须同步播放.我读过,Web Audio API是对此的最佳解决方案.但是,我找不到任何文档来说明如何实现这一目标. 几乎所有我读过的文章都会开始播放. //假设我将AudioBufferSourceNode连接到两个缓冲区var source1,source2;source1.start(0);source2.start(0); 这是否会使source2开始播放比s
..
我制作了此网络应用来创作音乐,我想向其中添加功能将合成文件下载为.mp3/wav/whateverFileFormatPossible,我已经进行了很多次搜索,但由于我找不到有关该方法的任何示例而总是放弃,只有发现的是麦克风录音机,但我想记录网站的最终音频目的地.我以这种方式播放音频: const a_ctx = new(window.AudioContext || window.webkit
..
我正在尝试保存来自webAudio API的输出以供将来使用,到目前为止,我认为获取PCM数据并将其保存为文件将符合我的期望,我想知道webAudio或mozAudio是否已经支持保存输出流,如果不能从输出流中获取pcm数据 解决方案 除了尝试捕获从您的基础声卡中捕获.如果(且仅)当声卡不能有效地采样流时,这可以使您免费解码,但可能会降低采样率. 我们知道,您已经通过对PCM编码的需
..
似乎使用 chrome.tabCapture.capture 进行音频捕获>会产生一些断断续续的声音. 已经有一个错误报告. 是否可以增加接收捕获流的缓冲区以防止卡顿,或者 tabCapture 方法是否已经定义了缓冲区? 基本捕获: chrome.tabCapture.capture({音频:是的,影片:假},函数(流){var ctx = new AudioContext
..
我正在尝试使用 chrome.desktopCapture.chooseDesktopMedia API来从扩展窗口捕获音频. 我正在从popup.js页面发送捕获请求. 清单: {“背景": {“脚本":["background.js"]},"browser_action":{"default_icon":"style/icons/icon16.png","default_tit
..
我通过以编程方式填充 AudioBuffer 来创建1s音频片段. AudioBufferSourceNode 启用了循环.在Chrome和Firefox中可以正常播放. 现在,我想动态更新AudioBuffer并立即(或在下一个循环中)拾取新的音频.在Chrome中,只需获取频道数据( getChannelData(0))并将其写入即可完美地实现此目的.Chrome会即时更新正在播放的音频
..
因此,我对Web Audio API还是很陌生,只是四天前才听说(尽管从那时起,我已经投入了大约50个小时的研究和实验时间).我也是javascript新手. 情况:我正在尝试开发一个脚本,该脚本将从API(编码为base64字符串)中获取Google的TTS返回值,并将其传输到arrayBuffer以在Web Audio API中使用,以便我可以发送它通过某些节点. 我已经从集成到我
..
我正在尝试使用vue-cli创建一个使用AudioWorklets的Web应用程序,但是在尝试访问AudioWorkletNode的任何属性(例如端口或channelCount等)时遇到很多错误: TypeError:在MyWorkletNode.invokeGetter上的非法调用 经过数小时的谷歌搜索和调试后,我认为它与类有某种联系,AudioWorklet似乎仅适用于ES6类,但是v
..
我正在制作一个可以读取和播放两个音频文件的应用程序. CodeSnadBox 上面的CodeSandBox具有以下规范. 按“播放"按钮按钮播放音频. 两个音轨中每个音轨的音量都可以更改. 问题 播放音频时有时会有所延迟. 但是,音频延迟并不总是如此,有时可能会完全同时播放两条音轨. 尽管上面的CodeSandBox中没有实现,但我当前正在处理的应用程序实现了一个搜
..
我正在修改脚本以播放在Codepen上找到的mp3,以使其在Safari上正常工作.在Firefox和Chrome中,它工作正常,但Safari抱怨:“未处理的承诺拒绝:TypeError:参数不足index.html:25" 我已阅读 https://developer.apple.com/library/archive/documentation/AudioVideo/Conceptua
..