speech-to-text相关内容
我正在使用Microsoft的Speech SDK for JavaScript转录麦克风流.录制和转录都是使用Speech SDK完成的,录制完成后,我还找不到一种方法来访问和保存录制的音频文件. 用于创建记录器和记录的代码 recognizer =新的SpeechSDK.SpeechRecognizer(speechConfig,audioConfig);//开始录音ognitor.
..
我想开发一个模块,该模块将使用语音对Android中的文本进行支持.我发现了许多与 RecognizerIntent 等相关的文档和演示.但是我发现所有这些演示都只能获取声音,直到10秒钟左右.但是我希望我的演示运行5-10分钟以上.如果没有离线运行,我没有任何问题,因为我的应用程序始终在线运行. 我还查看了 Android上的Pocketsphinx ,但是效果不佳.另外,它仅对Andro
..
我想问一下如何在仿真器上使用语音输入文本代码.我的代码可在真实设备上运行,但不能在仿真器上运行.错误说: 找不到用于处理Intent的活动{act = android.speech.action.RECOGNIZE_SPEECH(有其他功能)} 我该怎么办? 解决方案 package net.viralpatel.android.speechtotextdemo;导入java.ut
..
我正在使用谷歌语音识别器在Android中集成语音服务,但是在按下麦克风按钮时却显示了这条烦人的吐司消息.请给我建议一种隐藏此吐司信息的方法. 这是我的Java代码 公共类FormActivity扩展了AppCompatActivity {AppCompatEditText mFeedbackView;ImageView mFeedbackVoiceView;私有最终int REQ_COD
..
我正在研究android中的语音输入.我使用了 的示例 http://developer.android.com/resources/samples/ApiDemos/src/com/example/android/apis/app/VoiceRecognition.html 在Xperia X10上进行测试时,我得到了“立即讲话"对话框,但是在输入一些声音之前,它已经关闭.我正在尝
..
从文字到语音结束讲话后,我如何敬酒.实际上,我想做的事情比Log还多.这是我的代码. 公共类MainActivity扩展了AppCompatActivity实现的TextToSpeech.OnInitListener,TextToSpeech.OnUtteranceCompletedListener {私人TextToSpeech mTts;按钮btnSpeak;EditText editTex
..
这是我启动RecogniseListener目的的方式: Intent intent = new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH);intent.putExtra(RecognizerIntent.EXTRA_LANGUAGE_MODEL,RecognizerIntent.LANGUAGE_MODEL_FREE_FORM);int
..
我无法在AWS .NET SDK中找到任何有关转录流服务(从语音到文本)的引用. .NET SDK Amazon Transcribe流服务中是否可用?任何参考资料都会有帮助 解决方案 这是我的方法: 使用系统;使用System.Collections.Generic;使用System.IO;使用System.Net;使用System.Threading.Tasks;使用亚马逊;使
..
我正在尝试使用C#构建一个应用程序,该应用程序将获取音频流(目前是从文件中获取,但稍后将是网络流),并在它们可用时实时返回Watson的转录,类似于演示位于 https://speech-to-text-demo.mybluemix.net/ 有人知道我可以在哪里找到一些示例代码(最好是C#),可以帮助我入门吗? 我根据 https://github.com/watson-develo
..
我让Watson语音转文本工作在网络上.我现在正在尝试在本机反应上执行此操作,但是在文件上传部分出现错误. 我正在使用HTTPS Watson API.我需要设置Content-Type,否则Watson将返回错误响应.但是,在react-native中,为了使文件上载正常工作,我们似乎需要将'Content-Type'设置为'multipart/form-data'.将Content-Ty
..
我们想直接通过麦克风将waton语音发送到文本服务,但是看来我们必须先通过.wav吗?请查看以下代码,特别是我正试图将麦克风直接流式传输到SpeechToText服务.我认为这是使用麦克风的最常见方法,而不是将其通过管道传递到.wav,然后将.wav文件流式传输到stt: var mic; var SpeechToTextV1 = require('watson-developer-clo
..
我正在尝试使用Watson语音转文本服务,根据var token = {authentication-token}; var wsURI = 'wss://stream.watsonplatform.net/speech-to-text/api/v1/recognize' + '?watson-token=' + token + '&model=es-ES_BroadbandModel';
..
尝试使用Java SDK将来自麦克风的连续音频流直接发送到IBM Watson SpeechToText Web服务.发行版(RecognizeUsingWebSocketsExample)提供的示例之一显示了如何将.WAV格式的文件流式传输到服务.但是,.WAV文件要求提前指定其长度,因此仅将一个缓冲区一次附加到文件的幼稚方法是不可行的. 似乎SpeechToText.recognizeU
..
虽然在一般情况下我们使用Bluemix Java SDK取得了成功,但在尝试识别偶发的非英语单词(例如外来姓氏)时遇到了问题.我们的希望是可以使用SPR语音符号(这对text2speech非常有用)来指定关键字列表,但对Speech2text似乎不支持.有任何建议/解决方法吗? SpeechToText service = new SpeechToText(); service.setUse
..
Watson语音- to-Text异步HTTP接口允许通过调用register_callback来注册回调URL.这个电话显然是行不通的.为了进行说明,请参见以下六行代码. # Illustration of how I can't get the Watson Speech-to-Text # register_callback call to work. r = requests.po
..
我正在使用节点sdk来使用IBM watson语音转文本模块.发送音频样本并收到响应后,置信度看起来很奇怪. { "results": [ { "word_alternatives": [ { "start_time": 3.31, "alternatives": [ { "confidence
..
将Watson语音用于文本服务 如何提取从createRecognizeStream()方法返回的值? 这是示例代码的一部分.我试图在终端中查看临时结果,但是我得到的只是这个.如何设置显示结果的选项? { results: [ { alternatives: [Object], final: false } ], result_index: 0 } { results: [ { alt
..
以下所有操作均在Android Studio中完成. 我已经成功编译并测试了Android Watson Speech to Text演示应用程序.然后,我创建了一个包含Watson相关API的库项目,并创建了一个第二个应用程序项目,该项目具有一个引用了Watson库项目的简单UI. UI成功启动,并向文本api调用Watson语音.我以为我可以真正使用Watson库项目. 因此,我将
..
我无法使用curl访问IBM Bluemix上的语音文本API!我从文档中尝试了该示例,以获取带有curl的无会话请求,但该示例无效.我收到无效的userID/密码消息. 这是我遇到的错误: " {“代码":401,“错误":“未授权",“说明": "2016-10-08T15:22:37-04:00,发生错误ERCDPLTFRM-DNLKUPERR时, 进入 https://158.
..
我了解到Watson语音转文本已针对口语对话和1或2个说话者进行了一定程度的校准.我也知道,与WAV和OGG相比,它可以更好地处理FLAC. 从声学上讲,我想知道如何改善算法识别能力. 我的意思是,增加音量有帮助吗?也许使用一些压缩过滤器?降低噪音? 什么样的预处理可以帮助这项服务? 解决方案 提高基本模型(非常准确,但也非常通用)的准确性的最佳方法是使用Watson S
..