wave相关内容
我尝试使用 wave 模块打开一个波形文件,但无论我尝试什么,都会遇到相同的错误.出现错误的行如下: wav = wave.open(f) 这是错误信息: Traceback(最近一次调用最后一次):文件“annotate.py",第 47 行,在 播放(文件)文件“annotate.py",第 33 行,正在播放中wav = wave.open(f)文件“C:\Progra
..
我正在尝试捕获音频记录器(https://github.com/cwilso/AudioRecorder)并通过 Ajax 向 blob 发送一个 php 文件,该文件将接收 blob 内容并创建文件(在本例中为波形文件). Ajax 调用: audioRecorder.exportWAV(function(blob) {var url = (window.URL || window.we
..
第一次在这里发帖,让我们看看这是怎么回事. 我试图用 python 编写一个脚本,它会在 wav 文件的开头添加一秒钟的静音,但到目前为止没有成功. 我试图做的是在 wav 标头中读取,然后使用 wave 模块在开头添加一个 \0 ,但效果不佳.这是基于这里的代码 http://andrewslotnick.com/posts/audio-delay-with-python.html
..
我正在编写代码来分析一个声音所唱的单个音频频率.我需要一种方法来分析音符的频率.目前我正在使用 PyAudio 录制音频文件,该文件存储为 .wav,然后立即播放. 将 numpy 导入为 np导入pyaudio进口波# 打开一波wf = wave.open('file.wav', 'rb')swidth = wf.getsampwidth()速率 = wf.getframerate()# 使用
..
我必须在不使用任何外部 Python 库的情况下将 wav 文件从 44100Hz 下采样到 16000Hz,所以最好是 wave 和/或 audioop.我尝试使用 setframerate 函数将 wav 文件的帧速率更改为 16000,但这只会减慢整个录制的速度.如何将音频文件下采样到 16kHz 并保持音频的相同长度? 解决方案 可以使用Librosa的load()函数, 导入
..
在 Java 中以任何频率生成正弦波声音的最简单方法是什么?超过 2 个字节的样本大小会有所帮助,但这并不重要. 解决方案 参见 Beeper一个独立的例子. 也许更简单的事情? 如链接答案顶部所示的那 51 行代码片段(在下面重复 - 为单行和行内注释隔开),就像生成一个音调一样简单(好吧,你可以去掉5+ 线用于谐波). 人们似乎认为它应该是工具包中内置的一种方法来产生
..
我正在读取来自麦克风的原始波形流. (这部分工作,因为我可以将它发送到扬声器并获得很好的回声.) 为了简单起见,假设我想检测波形数据中的 DTMF 音调.实际上,我想检测任何频率,而不仅仅是 DTMF 中的频率.但我总是知道我在寻找哪个频率. 我尝试通过 FFT 运行它,但如果我想要高精度的检测(假设它只存在 20 毫秒),它似乎效率不高.我可以检测到大约 200 毫秒的准确度.
..
我有一个几分钟长的 .wav 文件,我想将其拆分为不同的 10 秒 .wav 文件. 这是我目前的python代码: 导入波导入数学定义主(文件名,时间):读取 = wave.open(文件名,'r')#获取采样率frameRate = read.getframerate()#获取帧数numFrames = read.getnframes()#获取持续时间持续时间 = numFrames/
..
我的目标是通过笔记本电脑麦克风录制我的声音,同时在 python 中为其添加效果.我需要的是类似于音乐效果踏板,您可以在其中连接吉他或麦克风,并添加混响、回声或失真等. 我正在使用“pyaudio"和“wave"来录制和播放音频.使用“scikits.audiolab"将音频作为数组导入,并能够使用反转、剪辑、平铺等功能编辑此数组.音频数组的这种操作让我可以向原始音频“添加"效果. 我
..
我需要分析用 .wav 文件编写的声音.为此,我需要将此文件转换为一组数字(例如,数组).我想我需要使用wave包.但是,我不知道它究竟是如何工作的.例如我做了以下事情: 导入波w = wave.open('/usr/share/sounds/ekiga/voicemail.wav', 'r')对于我在范围内(w.getnframes()):框架 = w.readframes(i)打印框架 由
..
我的项目是“阿塞拜疆语的语音识别".我必须编写一个将 wav 文件转换为字节数组的程序. 如何将音频文件转换为字节[]? 解决方案 基本上如第一个答案中的代码段所描述的那样,但不是 BufferedInputStream 使用 AudioSystem.getAudioInputStream(File) 获取InputStream. 使用从 AudioSystem 获得的音频流将
..
我希望将波形文件解构成小块,以不同的顺序重新组合,然后将其写入磁盘.在重新组装这些部分后,我似乎在编写它时遇到了问题,因此现在我只是尝试调试此部分,然后再担心其余部分.基本上,我将原始 wav 读入一个 2D numpy 数组,将其分成 100 个存储在较小的 2D numpy 数组列表中,然后使用 vstack 垂直堆叠这些数组: 将 scipy.io.wav 文件导入为 sciwav导入 n
..
我正在使用 wave 模块在 Python 中读取 wav 音频文件.此库中的 readframe() 函数将帧作为十六进制字符串返回.我想删除这个字符串的 \x,但是 translate() 函数不能按我想要的那样工作: >>>input = wave.open(r"G:\Workspace\wav\1.wav",'r')>>>input.readframes (1)'\xff\x1f\x00
..
我正在尝试通过套接字发送 wav 文件. 我收到错误: TypeError: 必须是字符串或缓冲区,而不是实例 waveFile = wave.open(WAVE_OUTPUT_FILENAME, 'rb')my_socket.sendall(waveFile) 解决方案 wave 不给你一般的文件 I/O.用于获取媒体属性. 您可以只使用正常的打开/关闭、读/写. se
..
我正在从以下位置检索声音: http://translate.google.com/translate_tts 并将其写入 WAV 文件,当我双击该文件时声音播放正常,但是当我使用 python 中的 WAVE 模块打开它时,它给了我这个错误: wave.Error: 文件不是以 RIFF id 开头 我想知道有没有办法打开这个文件,或者之前不写就可以播放声音. 相关
..
我正在使用 Python 从我的笔记本电脑流式传输麦克风输入.我目前正在使用 PyAudio 和 .wav 创建一个 2 秒的批次(下面的代码),然后在循环中读出新创建的 .wav 文件的帧表示. 然而,我真的只想要 np.ndarray 由代码中的“信号"表示,即 .wav 文件的 Int16 表示.有没有办法完全绕过写入 .wav 并使我的应用程序看起来是“实时的"而不是微批处理? 导
..
我已经创建了wave文件的标题,但是创建的wave文件无法播放. 我已经使用了 https://ccrma.stanford.edu/courses/422/projects/WaveFormat/作为创建wave标头的参考. 公共无效WriteWaveFileHeader()引发IOException {文件f =新文件(Environment.getExternalStorageDir
..
我有一个包含2列的sql表: 如何计算最高振幅波的频率? (每个波的频率都是固定的). 谢谢 解决方案 尝试一下 select 1/Time as frequency from
order by amplitude desc limit 1
..
这是最简单的AVAudioPlayer代码,只是无法播放任何内容.没有错误,在控制台中什么也没有,绝对可以找到该文件,就好像我将URL字符串更改为不存在的东西一样,我确实崩溃了.我在这里做错了什么?无论是否有委托,无论有没有PrepareToPlay,我都尝试过,但我什么都做不了.我也尝试过各种声音文件.真的把我的头发扯了! @implementation ViewController -
..
第一次在这里发布,让我们看看如何进行. 我试图用python编写一个脚本,该脚本会在wav文件的开头添加一秒钟的静默,但是到目前为止,这样做没有成功. 我想做的是在wav标头中读取,然后使用wave模块在开头添加\ 0,但效果不佳.这是基于此处的代码 http://andrewslotnick.com/posts/audio-delay-with-python.html impo
..