web-audio-api相关内容

通过声音振幅对对象进行动画处理?

我知道可以通过Actionscript为对象设置声音动画.我真的希望也可以用JavaScript为对象设置动画,因为它们非常相似. 也许可以用jQuery或HTML5完成.我只是希望找到一种在Flash之外进行操作的方法. 有人知道这两种格式是否可行吗?我已经做了大量研究,似乎找不到任何形式或教程表明可行. > 基本上,我正在尝试实现与我在Actionscript中编写的效果相同的效 ..
发布时间:2020-11-08 06:16:15 前端开发

使用FFMPEG实时流式传输到Web音频API

我正尝试使用node.js + ffmpeg将音频流传输到仅使用Web音频API的局域网中连接的浏览器. 不使用element,因为它添加了自己的8到10秒的缓冲区,并且我想获得最大的高延迟(最大大约1到2秒). 音频播放成功,但是音频非常嘈杂. 这是我的node.js(服务器端)文件: var ws = require('websocket.io'), server = ..
发布时间:2020-11-04 02:07:53 其他开发

尝试抽象WebAudio API xhr请求的部分时,无法将DOM元素传递给Javascript中的构造函数

我的问题是这个。当我在下面的 audioBoing函数中添加参数,然后将相同的参数放在 getElementById 字符串中时,该功能无法正常工作。我收到一条错误消息,指出未捕获的类型错误,无法调用方法'AddEventListener'为null 下面的函数可以正常工作。我重新编写了下面的函数,以反映我要执行的操作。最终,我试图对函数的大部分进行抽象,以便我可以插入参数并运行它,而不必每 ..
发布时间:2020-10-25 20:23:38 前端开发

前端JavaScript请求获得302重定向,但最终失败

我正尝试通过将Web Audio API与createMediaElementSourceSource()一起使用来创建播客网络的音频可视化模型,该模型与模型在本教程中进行了解释。到目前为止,我已经使它在Chrome中正常运行,并且您可以在这里看到它(注意:单击红色框以启动它)。 更新:基于评论中的讨论,现在可以清楚地知道问题是由于通过302重定向将请求重定向到另一个URL而引起的。 ..
发布时间:2020-10-10 02:33:00 其他开发

如何避免针对Web音频API的CORS限制?

我试图为音频流创建一些可视化。但是,当我尝试使用 createMediaElementSource()函数访问原始音频数据时,会遇到CORS麻烦。 是有没有办法避免这种限制,并从其他来源的流中获取原始音频数据?也许使用WebSockets? 解决方案 有五种方法可以防止跨域检索: CORS标头-这是理想选择,但是您需要第三方服务器的配合 JSONP-不是适用于流式传输内容,通 ..
发布时间:2020-10-10 02:00:29 前端开发

如何在浏览器中使用Web Audio API和Tone.js保存声音

使用上述库 在服务器上保存音乐的最简单方法是什么? 我试图考虑一种在浏览器中记录声音并将其保存到服务器的方法. 我可以将它们存储在数据库中吗? 最好的方法是什么,有人可以解释一下吗? 解决方案 最简单的方法是使用MediaRecorder API捕获音频图所连接到的MediaStream.这将为您提供记录,通常是在Opus中(除非您需要Vorbis,但我不建议这样做),并且您可以将M ..
发布时间:2020-09-14 00:38:50 其他开发

Web音频分析器的getFloatTimeDomainData缓冲区偏移量,其他时间的wrt缓冲区和“完整文件"的wrt缓冲区

(将问题的答案重写为问题,并使其更加简洁.) 我使用analyser=audioContext.createAnalyser()来处理音频数据,并且我试图更好地理解细节. 我选择一个fftSize,例如2048,然后使用Float32Array创建一个2048浮点数的数组buffer,然后在动画循环中 (通过window.requestAnimationFrame在大多数计算机上每秒被 ..

Web Audio API:平移音频(左/右)+控制增益

我想创建一个非常基本的AudioContext()实例,在左或右声道上播放声音. 我知道,这里已经有关于此的答案: https://stackoverflow.com/a/20850704/1138860 我的问题是,我必须通过GainNode控制增益. 每当我连接GainNode时,它都会使左右声道再次输出声音. 我从GainNode的答案中扩展了原始示例: a href = ..
发布时间:2020-09-14 00:02:26 前端开发

使用Web音频API分析来自麦克风的输入(将MediaStreamSource转换为BufferSource)

我正尝试使用Web音频Api获取每分钟的节拍(BPM),就像在以下链接中所做的一样( https://github.com/JMPerez/beats-audio-api/blob/gh-pages/script.js ),但来自音频流(麦克风). 不幸的是,我没有让它运行. 有人知道我如何将麦克风MediaStreamSource转换为BufferSource并像在第一个链接的网站上那样继续进行 ..
发布时间:2020-09-14 00:02:24 前端开发

如何将Web Audio API连接到Tone.js?

我正在做一个在线音频播放器,所以我想将 Pitch Shifter 集成到我的应用程序中,该应用程序可以在 Tone js 上使用.但不在 Web Audio API ... 中 所以我的想法是将 Tonejs 音调转换器连接到 Web Audio API的audioContext . 有什么可能的方法吗? 这是我的参考代码 var audioCtx = new (windo ..
发布时间:2020-09-13 22:37:25 前端开发

使用Javascript/Web Audio API访问/处理系统音频

是否可以使用Web Audio API访问系统音频,以便对其进行可视化处理或对其应用均衡器?似乎可以将系统音频连接到Web Audio API可以访问的输入设备(即解决方案 否,这是不可能的.您能获得的最接近的是在用户系统上安装回送音频设备,例如OSX上的Soundflower,并将其用作默认音频输出设备.没有本地配置更改是不可能的. ..
发布时间:2020-09-13 22:36:40 前端开发

播放JavaScript中的流音频

我目前正在使用node-lame编码原始PCM输入流,并且在Node.JS中有以下代码可以成功输出二进制MP3块: server.on('request', (req, res) => { encoded.pipe(res); }); 我尝试使用以下代码在前端界面中请求此代码: var audio = new Audio('http://localhost:8000/a.mp3 ..
发布时间:2020-09-13 22:13:07 前端开发

将分析仪连接到咆哮声

我一直在尝试将分析仪连接到咆哮声,但没有成功. 我像这样创建我的咆哮声: var sound = new Howl({ urls: [ '/media/sounds/genesis.mp3', ] }); 然后我像这样使用Howler全局上下文创建我的分析器: var ctx = Howler.ctx; var analyser = ctx.c ..
发布时间:2020-09-13 21:57:37 其他开发

带有获取的WebAudio流:DOMException:无法解码音频数据

我正在尝试使用Chrome 51播放来自提取API的无限流(网络摄像头音频流,例如Microsoft PCM,16位,单声道11025 Hz) 该代码对于mp3s文件几乎可以正常工作,除了一些小故障之外,但是由于某种原因,它对于wav文件根本不起作用,因为我收到"DOMException:无法解码音频数据" 代码是根据以下答案改编的: Choppy/通过Web Audio API用分块 ..
发布时间:2020-09-13 21:36:27 其他开发