sox相关内容
我正在用 Raspberry、TKinter 和 sox 构建一个简单的 GUI,使用 python 3.每次按下 GUI 中的按钮时,我都想播放动态生成的音调.代码如下: from Tkinter import Tk, Label, Button导入操作系统类 MyFirstGUI:def __init__(self, master):self.master = 主人master.title(
..
我的 MP3 文件有时会在结尾处静音.我想自动消除这种沉默.据我所知,这是“完美"的静音(0 振幅),而不是背景噪音.内容长短不一,沉默不一. 我发现了一些关于裁剪到前 30 秒的其他问题,或者裁剪到 X 和 X+N 秒 使用 ffmpeg.我想我可以使用类似的方法,只要我有办法找到沉默开始的时间.我将如何以编程方式做到这一点? 例如,一种可能的解决方案是使用一个命令来找到“沉默"的开
..
我为 sox 编译了 libmad.当我尝试阅读 mp3 时,我收到此消息: sox FAIL util:无法加载 MAD 解码器库 (libmad) 函数“mad_stream_buffer". 我是否错误地编译了项目? 解决方案 使用 SOX 创建 MP3 的步骤: 下载最新版本的 SOX 并安装. 下载libmad-0.dll 和libmp3lame-0.dll.
..
我正在尝试使用 sox 将星号语音邮件转换为原始音频.原始 wav 的编码信息是 PCM S16 LE,所以我以为我只能做 sox msg0000.wav msg0001.raw 但原始文件是乱码,根据 VLC,与 6 秒的源文件相比,时长为 4 分钟. 我不确定我哪里出错了,有人知道如何将 wav 转换为原始格式吗?最好使用 sox,但任何命令行解决方案都可以. 解决方案 您确定您
..
我正在尝试使用 C/C++ 中的麦克风和 sox 库录制声音. sox_open_read("default", &_input->signal, NULL, NULL) 我正在尝试使用默认输入设备.我收到错误 formats: can't open input file `default': No such file or directory 我猜这是因为我没有传递最后一个参数:file
..
我试图将一个 .wav 文件分成两部分,其中有几秒钟的沉默.根据我找到的文档,以下应该有效: sox testfile.wav tester.wav silent 1 0.50 0.1% 1 1.0 0.1% : newfile : restart "testfile.wav" 是一段录音,我在它中间放置了大约 4 秒的静音进行测试.预期的结果是我会通过运行它得到“tester001.wav
..
我的问题类似于之前关于“get-mean-amplitude-of-wav-from-sox"的问题: 从 sox 获取 .wav 的平均振幅(仅) 我希望能够使用 stats sox 对目录中的 1,000 个 .wav 文件进行批量测量,并将结果存储在数据框或一些类似的结构中,我可以将其另存为 csv 文本文件. 对于一个声音文件,代码是: ./sox SampleSo
..
我想使用我录制的音频样本在 Mozilla TTS 中创建自定义语音,但不知道如何开始.Mozilla TTS 项目有文档和教程,但我无法将这些部分放在一起 - 似乎缺少一些初学者需要了解的基本信息. 我有一些问题: 我看到 Mozilla TTS 有一个 Docker 映像,但它的文档涵盖了创建语音并且没有提到培训.我可以使用 Docker 镜像进行训练吗? 如果我无法使用 Doc
..
我有一个调用外部程序的 Python 脚本(准确地说是 sox).现在我必须用 sox 做几件事,但总是要等到一个文件写完,这样我才能在下一个命令中将它用作输入文件. subprocess.wait() 不起作用,因为sox的执行会完成,但文件不会写完. 这是我的代码: 导入临时文件进口shlexfile_url = '/some/file.wav'out_file = 'some/
..
我正在编写一个 python 脚本,它将采用 pcap,保存单个 RTP 流,然后使用 sox 将该 RTP 流转换为 wav 文件.现在,我可以使用 tshark 创建每个包含一个 rtp 流的 pcap 文件,但我无法将这些 pcap 转换为 .raw 文件,以便我可以使用 sox 创建 wav 文件..raw 文件可以通过在wireshark Telephony -> RTP -> 流分析
..
我想为iPhone设备构建libsox,但是我没有运气.我只是想知道是否有可能为iPhone建立这个库.... 解决方案 einsteinx已经从我的博客中发布了;),但这里再次链接了 第一篇文章解释了如何构建libsox: http://uberblo.gs/2011/04/iosiphoneos-equalizer-with-libsox-make-a-framework
..
任务是从音频录制的开始和结束按阈值消除静音.我使用此sox端口连接到iOS. https://github.com/shieldlock/SoX-iPhone-Lib/ 我发现命令行sox工具通过执行以下命令来完成任务: sox in.wav out.wav静音1 0.1 1%反向静音1 0.1 1%反向 (摘自此处: http://digitalcardboard.com/blog/2
..
所以我对编码非常陌生,最近写了一个涉及R和sox的小程序.看起来像这样 文件
..
我正忙着编写由Google Cloud Storage活动激活的Google Cloud功能.我需要在child_process中使用sox-但效果不佳. 此功能提取音频文件/事件,然后需要计算文件的长度,然后显示它. 当我在我的index.js中运行以下代码时: 'use strict';const exec = require('child_process').exec;cons
..
我有2个音频文件: correct.wav(持续时间3:07) incorrect.wav(持续时间3:10) 对UltrasoundJelly答案的评论:这是我为您的代码得到的结果: 解决方案 这里是一种解决方案: 使用 ffmpeg 查找每个文件中的前导静音 如果新文件的前导寂静时间更长,请使用 sox 调整差异如果新文件的前导音较短,请以 sox 开头使用
..
我一直在使用SoX产生白噪声.我正在采用一种将在整个轨道上调节音量的方式,该方式将创建类似于以下内容的模式: 白噪声包络效应 我已经尝试了淡入淡出,但是淡入淡出到100%的体积,然后淡出到0%的体积,在这种情况下,这只是一种痛苦. 颤音效果也不尽如人意,因为图案的频率会随着时间而变化. 唯一的另一种选择是将白噪声文件拆分为单独的文件,应用淡入淡出,然后在任一端进行修剪,这样
..
给出一个音频,我想计算讲话的速度.即快或慢. 当前我正在执行以下操作: -将语音转换为文本并获得成绩单(使用免费工具). -计算成绩单中的单词数. -计算文件的长度或持续时间. -最后, pace =(抄本中的单词数/文件的持续时间). 但是,获得的速度的准确性完全取决于转录,我认为这是不必要的步骤. 是否有任何可以使我能够使用python-library/sox/ffm
..
我正在尝试对多个音频文件进行淡入淡出以及3秒钟的交叉淡入淡出,然后将它们与sox一起合并到一个文件中. 我可以通过下面的命令将多个文件连接在一起,但不确定如何在每个文件之间进行淡入淡出 sox $(ls/tmp/a*.wav | sort -n)/tmp/out/out.wav 我可以使用以下命令交叉淡入淡出两个文件,但不确定如何将连接多个文件的第一行与拼接/交叉淡入淡出的第二行结合
..
因此,我目前正在尝试从树莓派(阿拉伯语)流式传输我的麦克风输入某种网络流,以便稍后在我的手机上接收.为了做到这一点,我使用 arecord -D plughw:1,0 -f dat -r 44100 | 将从我的USB麦克风到stdout的声音流传输到顶部,据我所知可以正常工作,但是我需要使其声音更大一些,以便我可以理解远离它的人. 所以我将它通过管道传送到sox play命令: ar
..
我正在尝试将一些.wav文件转换为.mp3格式 所需的.mp3格式为: 我尝试使用FFmpeg使用以下代码: ffmpeg -i input.wav -vn -ac 2 -b:a 160k output1.mp3 这是该命令以.wav格式输出的结果 我得到了结果,但是两件事不同整体比特率模式和写库 写作库:LAME3.99.5与LAME3.100(我认为这不应该有什
..