speech-recognition相关内容
我正在使用名为SpeechRecognizer的Android Speech API,试图将语音转换为文本,但由于某种原因,我一点击按钮,就看到消息&cot;Can‘t to to Google Now";,并且窗口关闭,没有等待我的演讲。或者声音断断续续,什么也不会发生。 class MainActivity : AppCompatActivity() { var voic
..
我已设置语音识别(语音到文本) http://yjwebsoft.com/voice/ 出于某种原因,它可以在Chrome上运行,但不能在Safari上运行。但在教程中,它表示它确实支持Safari 推荐答案 语音识别是纯Chrome功能,不支持Safari。您可以在此处找到最近的状态: http://caniuse.com/#feat=speech-recognition
..
librosa.Feature.mfcc(y=NONE,sr=22050,S=NONE,n_mfcc=20,dct_type=2,Norm=‘Ortho’,Lifter=0,**kwargs) librosa MFCC函数不包含要为要使用的MEL滤镜数量传递的参数。有没有办法定义它,或者它是否使用librosa.filters.mel中使用的默认值‘’n_mes=128‘’。 推荐答案
..
我正在尝试使用语音识别和pyttsx3模块在python中编写Jarvis代码。我因为Attribute error:__enter__的错误而卡住了 我不明白为什么会出现这样的情况。我对蟒蛇还是个新手。我目前使用的是python3.8。 def takeCommmand(): r = sr.Recognizer() with sr.Microphone as source:
..
我正在尝试将原始音频数据从一种格式转换为另一种格式,以便进行语音识别。 从Discord服务器以20ms块的格式接收音频:48Khz, 16-bit stereo signed BigEndian PCM。 我使用CMU's Sphinx进行语音识别,它将音频作为RIFF (little-endian) WAVE audio, 16-bit, mono 16,000Hz中的InputStr
..
我正在使用Speech Recognitionpython库设置声音识别器。 这是我到目前为止的代码: #!/usr/bin/env python3 import speech_recognition as sr r = sr.Recognizer('es-MX') with sr.Microphone() as mic: audio = r.listen(mic) p
..
所以,问题就在标题上,我可以为一个用户创建语音到文本流,效果很好,但当我尝试连接第二个用户时,它对所有人都不好,有时对一个用户很好,所以问题是,我是否可以使用一个Google_APPLICATION_Credentials同时为两个或更多用户创建Sppech到文本流,或者每个用户都需要启动自己的项目? 推荐答案 您应该能够使用相同的StreamingRecognize()客户端创建多个
..
Speech和我添加了Grmmar,它只检测这样的数字 SpeechRecognitionEngine RecognitionEngine = new SpeechRecognitionEngine(new CultureInfo("en-US", true)); // Created Grammar For only Numbers 1 t
..
我需要在Android和iPhone应用程序中实现语音命令识别,而不使用互联网通信-所有这些都必须在设备上进行本地处理,并且必须能够识别20-50个命令。 换句话说:在Android和iOS上运行的本地有限词汇量的说话人独立语音识别。 使用谷歌并没有给我足够的启发,所以我希望有过这方面工作经验的人给我一些建议。 有什么建议吗? 推荐答案 您可以使用CMUSphinx。
..
我有一段简单的代码,可以识别我的声音并将其转换为文本。我正在使用语音识别。 但我收到错误“找不到PyAudio;请检查安装”。如何修复? 以下是我的代码: import speech_recognition as sr r = sr.Recognizer() with sr.Microphone() as source: print('Speak anything')
..
我刚刚下载了fr-FR运行时语言包,以便可以通过我的程序识别法语语音。 但是,我的程序抛出错误 其他信息:找不到所需ID的识别器。 在 SpeechRecognitionEngine recognizer = new SpeechRecognitionEngine(new System.Globalization.CultureInfo("fr-FR"));
..
我看过pySpeech和蜻蜓的文档,但不知道如何输入音频文件转换成文本。我试过用麦克风对它说话,语音被转换成文本,但如果我想输入以前录制的音频文件。有人能帮我举个例子吗? 推荐答案 import speech_recognition as sr print(sr.__version__) r = sr.Recognizer() audio_file = sr.AudioFile('aud
..
如何将sphinx4配置为只能检测听写中的音素? 我已经阅读了partial results “您可以通过在解码器中设置配置变量‘FeatureBlockSize’来控制触发结果侦听器的频率。” 但我的问题是总是需要一个语法,如HelloWorld示例中的hello.gram。我需要能够从连续的语音中检测和识别音素。 推荐答案 以下是斯芬克斯对此的看法: Pho
..
我通过如下所示创建界面,在打字脚本中运行SpeechRecognition,运行正常: namespace CORE{ export interface IWindow extends Window{ webkitSpeechRecognition: any; } } 我尝试使用同样的方法来处理SpeechSynsing,但FIELD,并且以下代码不起作用
..
据我所知,Android API使用谷歌语音识别服务将语音转换为文本。 我已经学习了API,我发现它很简单,只需将语音转换为单词数组。 有没有什么方法可以提高识别率,我是说,如果我知道上下文,我可以给服务发送一些参数来提高识别率吗? 或者,是否有任何其他语音识别服务可用于此目的? 提前谢谢。 推荐答案 有什么方法可以提高识别率吗?我的意思是,如果我知道上下文,我可以给服
..
我正在尝试使用与此相关的语音识别: C# Speech Recognition - Is this what the user said? 可系统找不到其程序集。 推荐答案 确保have a reference在您的项目中使用System.Speech.Recognition。 此外,此功能仅在.NET 3.0及更高版本上可用。
..
我正在使用Google API进行语音识别,但希望限制收听时间。例如两秒。两秒钟后,即使用户继续说话,识别器也应该停止收听。我尝试了一些额外功能,如 EXTRA_SPEECH_INPUT_COMPLETE_SILENCE_LENGTH_MILLIS EXTRA_SPEECH_INPUT_MINIMUM_LENGTH_MILLIS EXTRA_SPEECH_INPUT_POSSIBLY_COM
..
可以通过代码确定设备上当前安装了哪些语言包?已尝试: Intent detailsIntent = new Intent(RecognizerIntent.ACTION_GET_LANGUAGE_DETAILS); sendOrderedBroadcast(detailsIntent, null, new LanguageDetailsChecker(), null, Ac
..
我第一次在一个项目中使用GCS Speech API将一系列音频文件转换为文本。每个文件大约有60分钟,在整个时间里都是一个人不停地说话。 我已经安装了GC SDK,正在使用它执行请求,如下所示: gcloud ml speech recognize-long-running "/path/to/file/audio.flac" --language-code="pt-PT" --asy
..
我正在寻找一个实现Open Ear或任何其他语音识别器将语音转换为文本的示例示例。有没有什么教程可以帮我把文本转换成语音。 推荐答案 有几个用于语音到文本转换的库。您可以使用其中的任何一个。 如下: openears这是最适合此用途的库。 libsprec 它使用Google语音识别API,因此支持多种语言。 VocalKit,使用高质量的开源PocketSph
..