web-audio-api相关内容
我的问题是。当我向下面的audioBoing函数添加参数,然后将相同的参数放入getElementById字符串中时,该函数不起作用。我收到一个错误,提示未捕获类型错误,无法调用Null的方法‘AddEventListener’ 下面的函数运行正常。我重写了它下面的函数,以反映我正在尝试做的事情。最终,我试图抽象该函数的一大部分,这样我就可以插入参数并运行它,而不必每次为它存储/启动的每个声
..
我对TypeScrip和整个JavaScript环境还是个新手。我有一个小项目要做,它需要创建一个带有类型脚本的浏览器应用程序(我还没有任何代码)。 我需要从浏览器麦克风录制原始PCM音频,将其记录下来,然后通过浏览器扬声器播放相同的PCM音频。 我研究过使用MediaRecorder进行录制,并使用普通的HTMLAudioElement进行回放,但我不确定它们是否支持原始音频。我也有
..
使用Node js的音调转换器 您好,我是Web开发的初学者! 我正在尝试建立一个在线音频播放器,为此我需要一个音调变送器。 我试着学习Web音频API,这对我来说不是很容易理解... 有没有人能用节点js帮助建立一个“音调移位器”……或建议学习Web音频API的资源... 为什么此代码在节点js中不起作用? var audioCtx = new (window.A
..
我编写此代码是为了在单击按钮时播放音频,但我无法使其工作。 谷歌文档在处理回复方面帮不上忙。 有谁能帮帮忙吗? async function playVoiceover() { const url ='https://texttospeech.googleapis.com/v1/text:synthesize?key=XXXXXXX' const rawResponse =
..
我喜欢在我的(Meteor)应用程序中使用Howler.js。然而,播放速率功能导致了我不想要的音调变化(我只想延长时间,并保持音调不变)。因此,我的解决方案是对它进行音调转换,以“纠正”音调。看起来很简单,这就是为什么我选择使用https://tonejs.github.io/ 唯一的问题是,我无论如何都不能让它正常工作。在阅读了几个小时的Web Audio API、Tone.js文档和在线讨
..
我正在寻找一种最新的解决方案,在不改变音调的情况下放慢/加快音频播放速度(所谓的“时间拉伸”)。处理应该尽可能快(音频是语音记录)。使用Web Worker也不错。 我正在使用Web Audio API。本机HTML5不是我的应用程序的选项。 我找到了一些延长时间的解决方案,但这些解决方案部分非常陈旧,不再维护,或者没有使用它们的例子。我找到的解决方案列表来自here。ThisStac
..
我试用PannerNode已经有一段时间了,在我使用questAnimationFrame()或setInterval()反复更新PannerNode位置的情况下,我注意到音频的点击/弹出。 为什么会发生这种情况?如何解决? 我曾希望通过引入位置作为AudioParam来解决这个问题,或者我可以使用渐变来绕过这个问题。我已经尝试了在Chrome Canary上设置坡道和不设置坡道,但问
..
是否可以合并两个音频‘base 64data’字符串以创建唯一的音频文件? 我的字符串中有两个循环音频Base64 wav,如下所示: data:audio/x-wav;base64,UklGRuIfQVZFZm1R7SH$WP90AhICLwKT... 我猜我在做一件非常愚蠢的事情,但我想知道这是否可能。 我正在尝试将这两个wav合并成一个可以在音频HTML元素中播放的wa
..
我之前问了一个类似的问题,但它没有解决我的问题,而且解释得很糟糕。 这一次,我制作了插图,希望能更好地解释。 我的音频播放器有一个简单的频谱分析仪。频率存储在一个数组中,该数组在每隔requestAnimationFrame进行更新,该数组如下所示: fbc_array = new Uint8Array(analyser.frequencyBinCount); analyser.get
..
我感兴趣的是在Java脚本中连续读取麦克风音量。StackOverflow上的许多现有解决方案(请参阅here、here和here)使用自2014年起不推荐使用的BaseAudioContext.createScriptProcessor()。 我想在我的项目中使用面向未来的代码,所以有谁可以分享一个现代的最小示例,说明如何使用新的AudioWorkletNode读取麦克风音量? 推荐
..
我主要对音频MIME类型感兴趣,但如果有人能提供Safari的MediaRecorder支持的所有MIME类型的列表,那将是有帮助的。 我找不到关于这件事的任何文件。到目前为止,我已经运行了MediaRecorder.isTypeSupport(...)Chrome和Firefox支持的所有音频MIME类型,但似乎都不支持。 推荐答案 目前似乎只支持audio/mp4和video
..
我已经创建了一个多音轨Web播放器,它使用wavelesurfer.js可以调整不同音轨的级别和平移。 我要做的是将具有新级别和平移的混合曲目导出为单个.wav文件。 我对此做了一些研究,很多人都指向https://github.com/mattdiamond/Recorderjs,但开发在4年多前就停止了,从我发现它似乎有很多问题。 仅按如下方式进行初始化:var rec =
..
我正在尝试使用傅立叶系数创建声音。 首先,请让我说明一下我是如何得到傅里叶系数的。 (1)我从麦克风声音拍摄了波形快照。 获取麦克风:getUserMedia() 获取麦克风声音:MediaStreamAudioSourceNode 获取波形数据:AnalyserNode.getByteTimeDomainData() 数据如下:(我字符串Uint8Array,这是ge
..
因此,我尝试使用Web Audio API解码和amp;播放使用Node.js&;Socket.IO流式传输到浏览器的MP3文件块。 在此上下文中,我唯一的选择是为接收到的每个音频数据块创建一个新的AudioBufferSourceNode,还是可以为所有块创建一个AudioBufferSourceNode并简单地将新的音频数据附加到源节点的buffer属性的末尾? 目前,我就是
..
我要创建音频文件的无缝循环。但在我到目前为止使用的所有方法中,结束和开始之间存在明显的差距。 这是我到目前为止尝试的内容: 第一种方法是在HTML中使用音频,它会循环,但从曲目末尾转到开头时仍然会有明显的延迟。 然后我在Ja
..
我正在尝试使用 Chrome 51 播放来自 fetch API 的无限流.(作为 Microsoft PCM 的网络摄像头音频流,16 位,单声道 11025 Hz) 该代码在 mp3s 文件中几乎可以正常工作,除了一些小故障,但它对 wav 文件根本不起作用,由于某种原因我得到“DOMException: Unable to decode audio data" 代码改编自这个答案
..
我正在尝试为播客网络创建音频可视化,使用带有 createMediaElementSource() 的 Web 音频 API,非常类似于模型 在本教程中解释.到目前为止,我已经让它在 Chrome 中正常工作,并且 你可以在这里看到它(注意:点击红色框开始它). 更新:根据评论中的讨论,现在很清楚问题的发生是因为请求通过 302 重定向重定向到另一个 URL. 然而,Safari 拒绝
..
我正在尝试在我的电子应用程序中使用 AudioWorklet 进行计量等.在开发模式下执行时工作正常,其中工作集由诸如 http://localhost:3000/processor.js.但是,如果我尝试在 prod 模式下运行该应用程序,则该文件将在本地提供,例如 file://tmp/etc/etc/build/processor.js 并且在开发人员控制台中,我什至可以看到该文件正在正确预
..
我正在使用网络音频 API 从浏览器流式传输录制的 PCM 音频. 我正在使用 binaryJS(websocket 连接) 将它流式传输到 nodejs 服务器,我正在尝试播放该流服务器使用扬声器 npm 模块. 这是我的客户.音频缓冲区最初是非交错的 IEEE 32 位线性 PCM,标称范围在 -1 之间和 +1.我从两个 PCM 频道中的一个开始,然后在下面播放. var cl
..
我正在使用 THREE.JS 和 Web Audio API 创建一个 3d 游戏.我遇到的问题之一是我想使用网络音频监听器方向,并将监听器定义为相机,其位置和方向不断更新 我的问题是,有没有办法轻松获得三台相机的矢量方向? 我试图通过使用旧的相机位置来计算它,并使用速度向量来计算它面向的方向,但是当相机静止不动时这不起作用...... 通过使用camera.rotation.x
..