audio相关内容
我目前正在使用JavaScript、HTML和CSS制作一个分贝计可视化工具。 我已经阅读了几个Web Audio API教程,但其中没有任何教程是针对我想要做的事情的。 这是我到目前为止所拥有的: window.onload = init; function init() { var ctx = new webkitAudioContext() , url
..
我正在运行Delphi Tokyo,我正在寻找一种在Windows和Android(可能在某个时候在iOS上)播放音频的方法。 在Windows上,我可以使用PlaySound(PChar(ResourceName), 0, SND_RESOURCE or SND_ASYNC)之类的东西,但我被Android困住了。我试过TMediaPlayer,但它需要大约一秒钟才能开始播放,这对于鼠标单
..
在Chrome中使用JavaScript访问HTML5音频元素(.ogg文件)。文件确实可以正常播放,但不知何故无法识别持续时间。 我只是抄袭了这段代码:https://www.w3schools.com/jsref/prop_audio_duration.asp(我知道W3School不是很好,但似乎有其他问题...) var x = document.getElementById(
..
我想转换任何音频文件(flac、wav等)使用PYTHON转换为mp3 我是一个新手,我试过pydub,但我不知道如何使ffmpeg与它一起工作,如果我是正确的,它不能转换flac文件。 我这个项目的想法是: Make musicBee将‘Now Playing’曲目的路径(通过按指定的快捷键)发送到我的python文件,如果音乐不是mp3格式,它会转换音乐并将其发送到文件夹。(一切都在后台
..
这是关于我观察到的一个场景的问题:如何有效地关闭由AudioSystems.getAudioInputStream这样的Java库打开的、我无法查看和控制的系统资源? 请看我的以下代码片段: public static void main(String[] args) throws UnsupportedAudioFileException, IOException { Sys
..
GStreamer文档中有大量关于构造和运行静态管道的示例。 然而,在媒体实际流动的情况下,没有太多关于更改/重新链接实时管道中的元素的内容。 这绝对是可能的,所以问题是: 在尝试此操作之前,我应该了解哪些GStreamer概念/机制? 是否有需要注意的陷阱? 基本程序是什么,或者是一个很好的例子? 接受的答案将是填鸭式的、全面的,并带有源代码 推荐答案 我最喜欢的理解
..
我正在尝试在CoLab主页中编写一些代码将MP3文件转换为MIDI。 所以我记得创建mp3格式的MIDI文件是一个很大的项目,我可能在将个人歌曲或音频文件导入到这个项目中时遇到了困难。(音频格式到MIDI,有些地方是用人工智能完成的(如PolyphonicPianoTranscription),(列表AudiotoMIDI conversion projects)。 所以我试着用这个函
..
在document.ready函数中,我有以下内容: audioElement = document.createElement('audio'); audioElement.setAttribute('src', 'http://www.mfiles.co.uk/mp3-downloads/Toccata-and-Fugue-Dm.mp3'); $('#ToggleStart').cl
..
我使用的是Pydub库。 我想混合2个声音与不同的分贝水平结合分贝数据(不同的能量水平)。例如,我有两个物种的声音。 sound1 = AudioSegment.from_file("species_a.wav") sound2 = AudioSegment.from_file("species_b.wav") combined = sound1.overlay(sound2) 我希
..
在iOS上的Safari中播放音频时,可以最小化Safari或锁定屏幕,音频将继续播放。但是,如果站点作为PWA安装到主屏幕,则最小化PWA或锁定屏幕会暂停音频。 有没有办法让iOS PWA在后台继续播放? 此处详细描述了该问题: https://medium.com/prototyped/what-we-learned-about-pwas-and-audio-playback-10a0
..
我正在尝试使用傅立叶系数创建声音。 首先,请让我说明一下我是如何得到傅里叶系数的。 (1)我从麦克风声音拍摄了波形快照。 获取麦克风:getUserMedia() 获取麦克风声音:MediaStreamAudioSourceNode 获取波形数据:AnalyserNode.getByteTimeDomainData() 数据如下:(我字符串Uint8Array,这是ge
..
说明 我希望能够根据声音的音色(音调)对列表中的声音集合进行排序。下面是一个玩具示例,其中我手动对我创建的12个声音文件和uploaded to this repo的频谱图进行了排序。我知道这些排序是正确的,因为为每个文件生成的声音与其前面文件中的声音完全相同,但添加了一种效果或过滤。 例如,声音的正确排序x、y和z,其中 x和y发音相同,但y有失真效果 y和z发音相同,但z过
..
此处参考developer site& call recording android 10 尝试录制音频文件并保存到其本地目录路径,我正在使用AccessibilityService在Android q(10)中实现录制声音,服务代码如下 MyService.java package nisarg.app.demo; import android.accessibilityservi
..
因此,我尝试使用Web Audio API解码和amp;播放使用Node.js&;Socket.IO流式传输到浏览器的MP3文件块。 在此上下文中,我唯一的选择是为接收到的每个音频数据块创建一个新的AudioBufferSourceNode,还是可以为所有块创建一个AudioBufferSourceNode并简单地将新的音频数据附加到源节点的buffer属性的末尾? 目前,我就是
..
我有两个音频文件,其中一个句子由两个不同的人朗读(就像唱一首歌一样)。所以它们有不同的长度。他们只是发声,里面没有乐器。 A1:音频文件1 A2:音频文件2 例句:“Lorem ipsum door sit amet,.” 我知道每个单词以A1开头和结尾的时间。我需要自动找出A2中每个单词的开始和结束时间。(任何语言,最好是Python或C#) 时间以XML格式保存。所以,我
..
我正在尝试在我的discord.js机器人中创建一个录制命令。到目前为止,我的代码是: const channel = message.member.voice.channel; if(!channel) return message.channel.send('Join a VC first!'); const connection = await channel.join();
..
我要创建音频文件的无缝循环。但在我到目前为止使用的所有方法中,结束和开始之间存在明显的差距。 这是我到目前为止尝试的内容: 第一种方法是在HTML中使用音频,它会循环,但从曲目末尾转到开头时仍然会有明显的延迟。 然后我在Ja
..
我有两个wav文件,我要将它们混合在一起形成一个wav文件。它们都是相同的样本格式等. 我没完没了地搜索Google。 我更喜欢使用python中的wave模块。 如何做到这一点? 推荐答案 您可以使用pydub库(我围绕STD库中的python wave模块编写的一个轻量级包装器)非常简单地完成这项工作: from pydub import AudioSegm
..
..
我希望能够以编程方式比较 mp3.我不知道是什么问题.标题?直方图?渠道?有人有这方面的经验吗? 解决方案 我写了 我的硕士论文关于音频指纹.论文列出了一些开源解决方案来比较音乐听起来像什么的问题,并提供了它们之间的性能比较.可能有点矫枉过正,但那里有一些非常不错的应用程序. 如果您只想通过标记数据进行比较,则要查看的标准是 ID3.基本上有两个版本,第一个非常简单(ID3v1),由
..