wave相关内容
我正在尝试从python的TIMIT数据库读取wav文件,但出现错误: 当我使用wave时: wave.Error: file does not start with RIFF id 当我使用scipy时: ValueError: File format b'NIST'... not understood. 当我使用librosa时,程序卡住了. 我尝试使用sox将其转换
..
我正在尝试使用Python 3.5.1的audioop模块以编程方式分析wav文件,以获取频道,持续时间,采样率,音量等.但是我找不到任何文档来描述如何将wav文件转换为“片段"参数,该参数必须是类似字节的对象. 有人可以帮忙吗? 解决方案 文件. read()返回一个bytes对象,因此,如果您只是尝试以bytes的形式获取文件的内容,则满足以下条件: with open(f
..
我有一个几分钟的.wav文件,我想分割成10秒的另一个.wav文件. 到目前为止,这是我的python代码: import wave import math def main(filename, time): read = wave.open(filename, 'r') #get sample rate frameRate = read.getframerate(
..
我正在尝试编写一个Python脚本来处理S3上存储的音频数据. 我有一个正在使用的S3对象 def grabAudio(filename, directory): obj = s3client.get_object(Bucket=bucketname, Key=directory+'/'+filename) return obj['Body'].read() 使用访问
..
我的目标是通过便携式麦克风记录我的声音,并同时使用python为其添加效果.我需要的是类似于音乐效果踏板,您可以在其中连接吉他或麦克风,并增加混响或回声或失真等. 我正在使用"pyaudio"和"wave"来录制和播放音频.使用"scikits.audiolab"将音频导入为数组,并能够使用诸如反转,剪辑,平铺等功能编辑该数组.对音频数组的这种操作使我可以向原始音频“添加"效果. 我遇
..
我正在使用scipy.fftpack和scipy.io包在Python中处理一些音频文件.这意味着我有导入的wave文件,使用傅里叶变换对其进行处理,然后输出到新的wave文件.但是,我遇到了这样的问题:运行这些转换后,波形文件将无法播放,并且大约是原始文件大小的4倍. 目前,我只是在导入歌曲,从导入中获取速率,数据片段,然后执行ifft(fft(data)),然后将其输出.我尝试将这些浮点
..
我写了一种算法,可以计算信号中的过零次数.我的意思是,值从+变为-的次数,反之亦然. 该算法的解释如下: 如果包含以下元素: v1 = {90, -4, -3, 1, 3} 然后将值乘以它旁边的值. (i * i + 1) 然后使用符号值sign(val)确定这是正数还是负数.示例: e1 = {90 * -4} = -360 -> sigum(e1) = -1
..
我必须在不使用任何外部Python库的情况下将wav文件从44100Hz下采样到16000Hz,因此最好使用wave和/或audioop.我尝试通过使用setframerate函数将wav文件的帧速率更改为16000,但这只会减慢整个记录的速度.如何将音频文件降采样为16kHz,并保持相同的音频长度? 解决方案 您可以使用Librosa的load()函数, import libros
..
我正在尝试将 OutputStream 转换为 ByteArrayOutput 流。我无法找到有关如何执行此操作的任何简单明了的答案。在StackOverflow上,该问题的标题中提出了该问题,但问题的主体询问如何将 ByteArrayStream 更改为 OuputStream 。我已经创建了 OutputStream ,答案中给出的示例将无法编译! 那个问题在这里 我有一个Outp
..
我目前正在寻找802.11p仿真的可行性,并且除了WAVE/IEE 802.11p之外,我还想测试IPv6. INET将是解决方案,但我怀疑与Veins 4 alpha 2(最新版本)的兼容性. 我所知道的是Veins 3.X是基于MiXiM的,但是同时INET和MiXiM可以兼容并一起安装在OmNET中,甚至可以将它们组合在一起,甚至可以与MixNET一起安装. 我真的很想知道是否有
..
我知道以下问题: 如何使用numpy数组创建pydub AudioSegment? 我的问题是恰好相反.如果我有pydub AudioSegment,如何将其转换为numpy数组? 我想使用scipy过滤器等. 我不太清楚AudioSegment原始数据的内部结构是什么. 解决方案 Pydub具有获取from pydub import AudioSegment sound =
..
我得到了一个很大的连续水下记录的WAV文件,我想将其转换为一个numpy数组进行分析.我正在努力做到这一点. 到目前为止,我有: import numpy as np import scipy as sp import wave as wv import struct wavefile = wv.open(filename,'r') (nchannels,sampwidth,fram
..
我正在编写代码以分析语音所演唱的单个音频频率.我需要一种方法来分析音符的频率.当前,我正在使用PyAudio录制音频文件,该文件存储为.wav,然后立即播放. import numpy as np import pyaudio import wave # open up a wave wf = wave.open('file.wav', 'rb') swidth = wf.getsampw
..
我正在尝试增加代码中声波的幅度.我有缓冲区,该缓冲区由构成wave所需的所有字节组成. 这是我的音频播放代码: public void AddSamples(byte[] buffer) { //somehow adjust the buffer to make the sound louder bufferedWaveProvider.AddSamples(buff
..
我一直试图在Matlab中绘制平面波方程.我正在尝试绘制$(1/R)E ^ i(kR + wT)$的实数部分,即$(1/R)cos(kR + wT)$.因此,我在Matlab中使用了以下代码(在一瞬间,例如t = 5), x=-5:0.1:5; y=-5:0.1:5; t=5; w=1.3; k=1.3; [X,Y]=meshgrid(x,y); R=(X.^2+Y.^2)^1/2;
..
我正在尝试录制一些音频并将其转换为其他声音格式。我正在使用AVAudioRecorder类进行录制,这些是我使用的录制设置.. NSDictionary * recordSetting = [[NSMutableDictionary alloc]在里面]; [recordSetting setValue:[NSNumber numberWithInt:kAudioFormatLinea
..
我正在研究iPhone上的一个项目,我正在使用AVAudioRecorder从设备麦克风录制音频,然后将操作录音。 To确保我正确地读取文件中的样本,我正在使用python的波形模块来查看它是否返回相同的样本。 但是,python的wave模块尝试打开由AVAudioRecorder保存的wav文件时返回“fmt chunk和/或data chunk missing”。 这些是我
..
我正在寻找如何根据音乐绘制声波。 我想要像这张图片一样的波浪。 这里有一些关于从音乐中显示Waves的讨论 IOS上的WaveForm 在iphone上渲染波形 iPhone的音频波形可视化 Github示例链接 https://github.com/gyetvan-andras/cocoa-waveform https://github.com/benalav
..
我正在编写WAVE音频文件的基本频率分析,但是当涉及从WAVE帧转换为整数时我遇到了麻烦。 这是相关部分我的代码: import wave track = wave.open('/ some_path / my_audio.wav',' r') byt_depth = track.getsampwidth()BYTES文件的#Byte深度 frame_rate = tra
..
我尝试用 wave 模块打开一个wave文件,但是不管我尝试什么,我总是收到相同的错误。 出错的行如下: $ p $ w $ wave $ open $ f 这是错误信息: Traceback(最近一次调用最后一次): 在文件中的第47行“annotate.py” 播放(文件) 文件“annotate.py”,第33行,正在播放 wav = wave.o
..