google-cloud-speech相关内容
所以,问题就在标题上,我可以为一个用户创建语音到文本流,效果很好,但当我尝试连接第二个用户时,它对所有人都不好,有时对一个用户很好,所以问题是,我是否可以使用一个Google_APPLICATION_Credentials同时为两个或更多用户创建Sppech到文本流,或者每个用户都需要启动自己的项目? 推荐答案 您应该能够使用相同的StreamingRecognize()客户端创建多个
..
我想在我的应用程序中添加一些关键字,这样API就可以更高效地识别口语。 例如Im having trouble recognizing the some Italian words that starts with E、(E`Per Me)等。或德语(呃)。 以下是我的代码: public void recognize (int sampleRate) { if (mApi =
..
我有一个基于 React 的应用程序的情况,我有一个输入,我也想允许语音输入.我可以只与 Chrome 和 Firefox 兼容,所以我想使用 getUserMedia.我知道我将使用 Google Cloud 的 Speech to Text API.但是,我有一些警告: 我希望它能够实时流式传输我的音频数据,而不仅仅是在我完成录音时.这意味着我发现的很多解决方案都不会很好地工作,因为仅保
..
我正在尝试按照以下说明设置 Google Cloud Text-to-Speech API - https://cloud.google.com/text-to-speech/docs/quickstart我已成功按照步骤 1-6 设置 Google SDK 并使用服务帐户凭据进行身份验证.但是,当我尝试运行用于合成语音的示例 HTTP 请求时,我收到以下错误: Cloud Text-to-
..
这是我在使用 Google Speech to Text Engine 时遇到的问题.我目前正在以 32kB 块实时流式传输 16 位/16 kHz 音频.但是在发送音频和接收转录之间平均有 25 秒的延迟,这违背了实时转录的目的. 为什么会有这么高的延迟? 解决方案 Google Speech to Text 文档 建议使用 100 毫秒的帧大小来最小化延迟. 32kB *(
..
我正在努力将 Google Cloud Speech Api 与 ruby 客户端 (v0.22.2) 一起使用. 我可以执行长时间运行的作业,如果我使用,我可以获得结果 job.wait_until_done! 但这会锁定服务器很长一段时间. 根据 API 文档,我真正需要的是操作名称(id). 有没有办法根据操作名称创建作业对象并以这种方式检索它?我似乎无法创建一个功
..
我正在尝试从谷歌云读取 mp3/wav 数据并尝试实现音频分类技术.问题是我无法读取 google api 在可变响应中传递的结果. 下面是我的python代码 speech_file = r'gs://pp003231/a4a.wav'配置 = 语音.types.RecognitionConfig(encoding=speech.enums.RecognitionConfig.Audio
..
我正在使用Firebase云功能通过 longRunningRecognize 的示例代码: //检测音频文件中的语音.这将创建一个识别作业,您可以//可以立即等待,或者稍后再获取结果.const [operation] =等待client.longRunningRecognize(request);//获得工作最终结果的Promise表示const [response] =等待操作. 此代
..
我希望能够结束Google语音转文本流( StreamingRecognitionResult.is_final 是 true .同样,看来我们应该一直保持音频流传输,直到触发 data 事件为止,才能获得最终或临时的所有结果. 对我来说,这似乎是个错误,他提交了问题. 已更新:现在看来,它已被确认为错误.在修复之前,我正在寻找一种可能的解决方法. 已更新:以供将来参考,此处是列出了
..
我正在使用Google Cloud Platform Speech API. 我正在使用示例源进行开发. https://github.com/GoogleCloudPlatform/android-docs-样本/树/主/语音/语音 几乎与样本来源相同. 除了我的应用中许多VoiceRecorder的启动/停止. 我在三星设备中遇到此错误. 在华为设备中没有出现此错误. com
..
如何通过JavaScript录制麦克风中的音频并将其提交给DialogFlow,而无需通过服务器? 解决方案 此问题分为两部分: 如何以DialogFlow格式记录麦克风音频. 如何通过适当的身份验证将音频实际提交到DialogFlow. 第1部分 为了以DialogFlow可以理解的格式录制麦克风音频,我使用 opus-recorder ,然后使用以下代码转换它返回的
..
所以我正在考虑为文本应用构建语音.我进行了一些研究,发现使用RecognizerIntent的内置语音转换API是免费的,但还发现google现在提供了收费的云语音API. 我的问题是,它们之间有什么区别?如果我使用内置的RecognizerIntent,它是免费的吗? 解决方案 有关Google Cloud Speech API,请参考以下链接: https://cloud.
..
我正在开发一个用于使用Google云语音APi识别语音并同时录制音频的应用. git链接 我试图播放获取IOException的录制的.opus音频文件 W/System.err: java.io.IOException: setDataSource failed. 有什么主意吗?谢谢! 解决方案 android堆栈交换上的用户提到能够播放作品较新版本的Android文件中具有.og
..
我正在尝试从应用脚本执行google-speech-to-text.不幸的是,我找不到适用于应用程序脚本或纯HTTP的任何示例,因此可以使用简单的UrlFetchApp运行它. 我创建了一个服务帐户,并设置了启用了语音到文本api的项目,并且能够 使用命令行示例成功运行识别 curl -s -H“内容类型:application/json" \ -H“授权:承载" $(gcloud a
..
我正在使用带有NodeJS后端的Google Cloud API for Speech-to-text。 应用程序需要能够侦听语音命令,并将它们作为缓冲区传输到后端。为此,我需要在检测到静音时发送前一音频的缓冲区。 任何帮助都将不胜感激。包括下面的js代码 if(!navigator.getUserMedia) navigator.getUserMedia = navigator
..
我在系统环境变量中设置GOOGLE_APPLICATION_CREDENTIALS后,尝试使用Google云语音API。无法解决任何问题或解决超过2天。 这是我得到的错误 24-May-2017 17:58:22.287警告[grpc-default-executor-0] io.grpc.internal.ChannelExecutor.drain Runnable在Channel
..
我们正在使用Google Speech API作为我们服务的一部分。由于新的GDPR规则,我们必须确保没有任何数据离开欧盟。所有其他服务似乎都能够指定一个区域,包括Google云端存储。但是,我一直无法找到任何有关Google Speech API的文档。 任何人都知道是否可以为Google Speech API指定一个区域,以避免将数据发送到欧盟以外的地方? 解决方案 找到我的答案
..
我一直在使用Chromium Google Speech API,并最近转而使用Google Cloud Speech API。自从Google云语音API发布以来,性能似乎在识别的准确性方面已经下降。我还看到,音频流式传输中会出现越来越多的“空洞结果”。 我将音频同时传输到多种不同的服务,Google云语音API将返回空导致一些其他服务正在返回转录文本。让我想知道Chromium Spee
..
我尝试使用 Google的Speech API a>在Android项目中。示例项目有效。我无法在自己的Android应用程序中使用它。 build.gradle(模块:应用程序): apply plugin:'com.android.application' apply plugin:'com.google.protobuf' ext { supportLibraryVe
..
我正在对Google云语音API执行异步请求,但我不知道如何获得操作结果: 请求POST: https://speech.googleapis.com/v1beta1/speech:asyncrecognize 正文: { “config”:{ “languageCode”:“pt-BR”, “encoding”:“LINEAR16”, “sampleRate”:16000
..