Web Audio API:如何播放MP3块流 [英] Web Audio API: How to play a stream of MP3 chunks

查看:48
本文介绍了Web Audio API:如何播放MP3块流的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

因此,我尝试使用Web Audio API解码和amp;播放使用Node.js&;Socket.IO流式传输到浏览器的MP3文件块。

在此上下文中,我唯一的选择是为接收到的每个音频数据块创建一个新的AudioBufferSourceNode,还是可以为所有块创建一个AudioBufferSourceNode并简单地将新的音频数据附加到源节点的buffer属性的末尾?

目前,我就是这样接收MP3块的,对它们进行解码并安排播放时间。我已验证正在接收的每个块都是"有效的MP3块",并且正在由Web Audio API成功解码。

audioContext = new AudioContext();
startTime = 0;

socket.on('chunk_received', function(chunk) {
    audioContext.decodeAudioData(toArrayBuffer(data.audio), function(buffer) {
        var source = audioContext.createBufferSource();
        source.buffer = buffer;
        source.connect(audioContext.destination);

        source.start(startTime);
        startTime += buffer.duration;
    });
});

任何有关如何最好地使用新音频数据"更新"Web Audio API播放的建议或见解都将不胜感激。

推荐答案

不能,AudioBufferSourceNode不能重用,也不能push放到AudioBuffer上。它们的长度是不变的。

本文(http://www.html5rocks.com/en/tutorials/audio/scheduling/)提供了一些关于使用Web Audio API进行调度的有用信息。但你走上了正确的道路。

这篇关于Web Audio API:如何播放MP3块流的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆