web-audio-api相关内容
我知道可以通过Actionscript为对象设置声音动画.我真的希望也可以用JavaScript为对象设置动画,因为它们非常相似. 也许可以用jQuery或HTML5完成.我只是希望找到一种在Flash之外进行操作的方法. 有人知道这两种格式是否可行吗?我已经做了大量研究,似乎找不到任何形式或教程表明可行. > 基本上,我正在尝试实现与我在Actionscript中编写的效果相同的效
..
在播放循环缓冲区时尝试更改基础缓冲区数据时遇到问题. bufferData = audioContext.bufferSourceNode.buffer.getChannelData(0); bufferData[100] = newValue; 在大多数浏览器中,这种行为似乎都可以正常工作(我已经在Chrome,Safari,Opera,Edge中进行了测试,都可以正常工作),但是在F
..
我正尝试使用node.js + ffmpeg将音频流传输到仅使用Web音频API的局域网中连接的浏览器. 不使用element,因为它添加了自己的8到10秒的缓冲区,并且我想获得最大的高延迟(最大大约1到2秒). 音频播放成功,但是音频非常嘈杂. 这是我的node.js(服务器端)文件: var ws = require('websocket.io'), server =
..
我的问题是这个。当我在下面的 audioBoing函数中添加参数,然后将相同的参数放在 getElementById 字符串中时,该功能无法正常工作。我收到一条错误消息,指出未捕获的类型错误,无法调用方法'AddEventListener'为null 下面的函数可以正常工作。我重新编写了下面的函数,以反映我要执行的操作。最终,我试图对函数的大部分进行抽象,以便我可以插入参数并运行它,而不必每
..
我正尝试通过将Web Audio API与createMediaElementSourceSource()一起使用来创建播客网络的音频可视化模型,该模型与模型在本教程中进行了解释。到目前为止,我已经使它在Chrome中正常运行,并且您可以在这里看到它(注意:单击红色框以启动它)。 更新:基于评论中的讨论,现在可以清楚地知道问题是由于通过302重定向将请求重定向到另一个URL而引起的。
..
我试图为音频流创建一些可视化。但是,当我尝试使用 createMediaElementSource()函数访问原始音频数据时,会遇到CORS麻烦。 是有没有办法避免这种限制,并从其他来源的流中获取原始音频数据?也许使用WebSockets? 解决方案 有五种方法可以防止跨域检索: CORS标头-这是理想选择,但是您需要第三方服务器的配合 JSONP-不是适用于流式传输内容,通
..
我需要使用来自不同MediaStream的音频和视频来创建MediaStream。在Firefox中,我可以从一组磁道实例化一个新的MediaStream: var outputTracks = []; outputTracks = outputTracks.concat(outputAudioStream.getTracks()); outputTracks = outputTr
..
使用上述库 在服务器上保存音乐的最简单方法是什么? 我试图考虑一种在浏览器中记录声音并将其保存到服务器的方法. 我可以将它们存储在数据库中吗? 最好的方法是什么,有人可以解释一下吗? 解决方案 最简单的方法是使用MediaRecorder API捕获音频图所连接到的MediaStream.这将为您提供记录,通常是在Opus中(除非您需要Vorbis,但我不建议这样做),并且您可以将M
..
(将问题的答案重写为问题,并使其更加简洁.) 我使用analyser=audioContext.createAnalyser()来处理音频数据,并且我试图更好地理解细节. 我选择一个fftSize,例如2048,然后使用Float32Array创建一个2048浮点数的数组buffer,然后在动画循环中 (通过window.requestAnimationFrame在大多数计算机上每秒被
..
我想创建一个非常基本的AudioContext()实例,在左或右声道上播放声音. 我知道,这里已经有关于此的答案: https://stackoverflow.com/a/20850704/1138860 我的问题是,我必须通过GainNode控制增益. 每当我连接GainNode时,它都会使左右声道再次输出声音. 我从GainNode的答案中扩展了原始示例: a href =
..
我正尝试使用Web音频Api获取每分钟的节拍(BPM),就像在以下链接中所做的一样( https://github.com/JMPerez/beats-audio-api/blob/gh-pages/script.js ),但来自音频流(麦克风). 不幸的是,我没有让它运行. 有人知道我如何将麦克风MediaStreamSource转换为BufferSource并像在第一个链接的网站上那样继续进行
..
..
我一直在尝试遵循一些教程中的步骤,使用Web Audio API通过按钮播放简单的,编码的本地wav或mp3文件.我的代码如下(testAudioAPI.js): window.AudioContext = window.AudioContext || window.webkitAudioContext; var context = new AudioContext(); var myBuf
..
我正在做一个在线音频播放器,所以我想将 Pitch Shifter 集成到我的应用程序中,该应用程序可以在 Tone js 上使用.但不在 Web Audio API ... 中 所以我的想法是将 Tonejs 音调转换器连接到 Web Audio API的audioContext . 有什么可能的方法吗? 这是我的参考代码 var audioCtx = new (windo
..
是否可以使用Web Audio API访问系统音频,以便对其进行可视化处理或对其应用均衡器?似乎可以将系统音频连接到Web Audio API可以访问的输入设备(即解决方案 否,这是不可能的.您能获得的最接近的是在用户系统上安装回送音频设备,例如OSX上的Soundflower,并将其用作默认音频输出设备.没有本地配置更改是不可能的.
..
通过使用以下内容,我们可以提示用户选择受音频和视频源限制的首选媒体输入设备(当前仅对Chrome支持感兴趣). navigator.mediaDevices.getUserMedia({audio: true}) .then((stream) => { console.log(stream); }); 任何人都知道是否有公开的API可以检测用户选择的输入设备当前是否处于静
..
我目前正在使用node-lame编码原始PCM输入流,并且在Node.JS中有以下代码可以成功输出二进制MP3块: server.on('request', (req, res) => { encoded.pipe(res); }); 我尝试使用以下代码在前端界面中请求此代码: var audio = new Audio('http://localhost:8000/a.mp3
..
我一直在尝试将分析仪连接到咆哮声,但没有成功. 我像这样创建我的咆哮声: var sound = new Howl({ urls: [ '/media/sounds/genesis.mp3', ] }); 然后我像这样使用Howler全局上下文创建我的分析器: var ctx = Howler.ctx; var analyser = ctx.c
..
我正在尝试使用Chrome 51播放来自提取API的无限流(网络摄像头音频流,例如Microsoft PCM,16位,单声道11025 Hz) 该代码对于mp3s文件几乎可以正常工作,除了一些小故障之外,但是由于某种原因,它对于wav文件根本不起作用,因为我收到"DOMException:无法解码音频数据" 代码是根据以下答案改编的: Choppy/通过Web Audio API用分块
..
我正在使用以下代码来解码来自nodejs套接字的音频块 window.AudioContext = window.AudioContext || window.webkitAudioContext; var context = new AudioContext(); var delayTime = 0; var init = 0; var audioStack = []; var nextT
..