google-cloud-speech相关内容

是否可以从一个帐户同时执行两个语音到文本流?

所以,问题就在标题上,我可以为一个用户创建语音到文本流,效果很好,但当我尝试连接第二个用户时,它对所有人都不好,有时对一个用户很好,所以问题是,我是否可以使用一个Google_APPLICATION_Credentials同时为两个或更多用户创建Sppech到文本流,或者每个用户都需要启动自己的项目? 推荐答案 您应该能够使用相同的StreamingRecognize()客户端创建多个 ..

如何通过 socket.io 将实时音频从浏览器流式传输到 Google Cloud Speech?

我有一个基于 React 的应用程序的情况,我有一个输入,我也想允许语音输入.我可以只与 Chrome 和 Firefox 兼容,所以我想使用 getUserMedia.我知道我将使用 Google Cloud 的 Speech to Text API.但是,我有一些警告: 我希望它能够实时流式传输我的音频数据,而不仅仅是在我完成录音时.这意味着我发现的很多解决方案都不会很好地工作,因为仅保 ..
发布时间:2021-12-30 21:55:41 前端开发

Google Speech to Text 的 25 秒延迟

这是我在使用 Google Speech to Text Engine 时遇到的问题.我目前正在以 32kB 块实时流式传输 16 位/16 kHz 音频.但是在发送音频和接收转录之间平均有 25 秒的延迟,这违背了实时转录的目的. 为什么会有这么高的延迟? 解决方案 Google Speech to Text 文档 建议使用 100 毫秒的帧大小来最小化延迟. 32kB *( ..
发布时间:2021-08-30 20:26:21 其他开发

保存 Google Cloud Speech API 操作(作业)对象以稍后检索结果

我正在努力将 Google Cloud Speech Api 与 ruby​​ 客户端 (v0.22.2) 一起使用. 我可以执行长时间运行的作业,如果我使用,我可以获得结果 job.wait_until_done! 但这会锁定服务器很长一段时间. 根据 API 文档,我真正需要的是操作名称(id). 有没有办法根据操作名称创建作业对象并以这种方式检索它?我似乎无法创建一个功 ..
发布时间:2021-07-11 20:11:55 其他开发

如何使用python从谷歌云读取mp3数据

我正在尝试从谷歌云读取 mp3/wav 数据并尝试实现音频分类技术.问题是我无法读取 google api 在可变响应中传递的结果. 下面是我的python代码 speech_file = r'gs://pp003231/a4a.wav'配置 = 语音.types.RecognitionConfig(encoding=speech.enums.RecognitionConfig.Audio ..
发布时间:2021-06-26 20:14:53 Python

如何序列化和反序列化"longRunningRecognize"操作以在以后获得其结果?

我正在使用Firebase云功能通过 longRunningRecognize 的示例代码: //检测音频文件中的语音.这将创建一个识别作业,您可以//可以立即等待,或者稍后再获取结果.const [operation] =等待client.longRunningRecognize(request);//获得工作最终结果的Promise表示const [response] =等待操作. 此代 ..

如何结束Google语音转文本流的正常识别并获取待处理的文本结果?

我希望能够结束Google语音转文本流( StreamingRecognitionResult.is_final 是 true .同样,看来我们应该一直保持音频流传输,直到触发 data 事件为止,才能获得最终或临时的所有结果. 对我来说,这似乎是个错误,他提交了问题. 已更新:现在看来,它已被确认为错误.在修复之前,我正在寻找一种可能的解决方法. 已更新:以供将来参考,此处是列出了 ..

grpc:通话已半关闭错误

我正在使用Google Cloud Platform Speech API. 我正在使用示例源进行开发. https://github.com/GoogleCloudPlatform/android-docs-样本/树/主/语音/语音 几乎与样本来源相同. 除了我的应用中许多VoiceRecorder的启动/停止. 我在三星设备中遇到此错误. 在华为设备中没有出现此错误. com ..
发布时间:2020-11-21 01:42:37 Java开发

如何在JavaScript中录制麦克风音频并提交给DialogFlow?

如何通过JavaScript录制麦克风中的音频并将其提交给DialogFlow,而无需通过服务器? 解决方案 此问题分为两部分: 如何以DialogFlow格式记录麦克风音频. 如何通过适当的身份验证将音频实际提交到DialogFlow. 第1部分 为了以DialogFlow可以理解的格式录制麦克风音频,我使用 opus-recorder ,然后使用以下代码转换它返回的 ..

Android语音转文本API(识别器意图)和Google Cloud语音API之间的区别?

所以我正在考虑为文本应用构建语音.我进行了一些研究,发现使用RecognizerIntent的内置语音转换API是免费的,但还发现google现在提供了收费的云语音API. 我的问题是,它们之间有什么区别?如果我使用内置的RecognizerIntent,它是免费的吗? 解决方案 有关Google Cloud Speech API,请参考以下链接: https://cloud. ..
发布时间:2020-08-30 07:19:00 移动开发

如何在Android中播放.opus音频文件?

我正在开发一个用于使用Google云语音APi识别语音并同时录制音频的应用. git链接 我试图播放获取IOException的录制的.opus音频文件 W/System.err: java.io.IOException: setDataSource failed. 有什么主意吗?谢谢! 解决方案 android堆栈交换上的用户提到能够播放作品较新版本的Android文件中具有.og ..

如何从Google Apps脚本授权Google语音转文本?

我正在尝试从应用脚本执行google-speech-to-text.不幸的是,我找不到适用于应用程序脚本或纯HTTP的任何示例,因此可以使用简单的UrlFetchApp运行它. 我创建了一个服务帐户,并设置了启用了语音到文本api的项目,并且能够 使用命令行示例成功运行识别 curl -s -H“内容类型:application/json" \ -H“授权:承载" $(gcloud a ..

当检测到静音(JS)时,如何将前一个音频(来自麦克风)提取为缓冲区?

我正在使用带有NodeJS后端的Google Cloud API for Speech-to-text。 应用程序需要能够侦听语音命令,并将它们作为缓冲区传输到后端。为此,我需要在检测到静音时发送前一音频的缓冲区。 任何帮助都将不胜感激。包括下面的js代码 if(!navigator.getUserMedia) navigator.getUserMedia = navigator ..

为Google Speech API指定区域?

我们正在使用Google Speech API作为我们服务的一部分。由于新的GDPR规则,我们必须确保没有任何数据离开欧盟。所有其他服务似乎都能够指定一个区域,包括Google云端存储。但是,我一直无法找到任何有关Google Speech API的文档。 任何人都知道是否可以为Google Speech API指定一个区域,以避免将数据发送到欧盟以外的地方? 解决方案 找到我的答案 ..

谷歌云语音API返回空的结果

我一直在使用Chromium Google Speech API,并最近转而使用Google Cloud Speech API。自从Google云语音API发布以来,性能似乎在识别的准确性方面已经下降。我还看到,音频流式传输中会出现越来越多的“空洞结果”。 我将音频同时传输到多种不同的服务,Google云语音API将返回空导致一些其他服务正在返回转录文本。让我想知道Chromium Spee ..
发布时间:2018-05-10 13:35:58 其他开发