speech-synthesis相关内容

语音识别和语音合成入门

我想开始学习语音识别和语音合成 在Prototype based on speech recognition 有人告诉我使用Microsoft语音服务器(SDK等) 当我有了这些,我如何编写应用程序,以及使用哪种编程语言(开发环境?)? 是否有使用Asterisk或SVOX的经验? 我需要做的是: 语音识别 语音合成 我不一定要很好地识别语音--我认为一开始30-50个单 ..
发布时间:2022-04-02 09:08:09 其他开发

如何向Microsoft SAPI添加自定义SR(语音识别)

我有一个用于语言X的语音识别应用程序。 Microsoft SAPI不支持此语言。如何将用于语言X的此SR添加到Microsoft SAPI,以便可以通过Microsoft SAPI使用它? 所以我想知道的是 我可以向Microsoft SAPI添加自定义SR吗? 如果是,如何操作? 如果这是一个复杂的过程,从哪里可以找到详细信息? 推荐答案 只是应用程序编程接口 ..
发布时间:2022-04-02 09:06:46 其他开发

C++ MSAPI 5:SetNotifyCallbackFunction 不起作用

所以我尝试了 MSAPI 5.4 TTS 与事件示例.现在,我创建了一个使用 SetNotifyCallbackFunction 的 cmd 提示应用程序,但没有调用我传递的函数.我不是 C++ 专家,所以我很难解决这个问题,谁能指出我正确的方向,或者至少给我一个 SetNotifyCallbackFunction 的好例子? 这是我的代码的简化版本: typedef void __std ..
发布时间:2022-01-15 11:53:56 C/C++开发

SpeechSynthesis API 示例给出错误

在网络演讲中给出的示例API 规范 SpeechSynthesis.speak(SpeechSynthesisUtterance('Hello World')); 在 chrome 上出现以下错误: 未捕获的类型错误:DOM 对象构造函数不能作为功能. 有人可以帮忙吗? 谢谢! 解决方案 我认为规范中有一个类型,你应该在 SpeechSynthesisUtteran ..
发布时间:2021-11-15 04:26:59 前端开发

“Windows.Media.SpeechSynthesis"和“Windows.Media.SpeechSynthesis"有什么区别?和“系统.语音.合成"?

我正在尝试确定在用 C# 开发的专业应用程序中,这两个 API 中的哪一个具有更多的功能来进行文本到语音转换. 操作系统在这里不是问题,只是这两个命名空间如何提供更多功能、高质量声音和稳定性. 有哪位机构掌握这两种技术并能告诉我这两个命名空间的不同之处吗?就特征而言,其中一个是另一个的超集吗? 编辑: 在这两个命名空间后面是同一个语音合成引擎? 我的网络应用程序将在服 ..
发布时间:2021-09-25 20:10:51 C#/.NET

“Windows.Media.SpeechSynthesis"和“Windows.Media.SpeechSynthesis"有什么区别?和“系统.语音.综合"?

我正在尝试确定在用 C# 开发的专业应用程序中,这两个 API 中的哪一个具有更多的功能来进行文本到语音转换. 操作系统在这里不是问题,只是这两个命名空间如何提供更多功能、高质量声音和稳定性. 有哪位机构掌握这两种技术并能告诉我这两个命名空间的不同之处吗?就特征而言,其中一个是另一个的超集吗? 编辑: 在这两个命名空间后面是同一个语音合成引擎? 我的网络应用程序将在服 ..
发布时间:2021-09-25 20:10:09 C#/.NET

Web Speech API 可以与 Web Audio API 一起使用吗?

是否可以将来自 Web Speech API 的合成语音用作 Web Audio API 的音频上下文中的 SourceNode? 解决方案 我实际上询问过是否将其添加到 Web Speech 邮件列表中,但基本上被告知“不".公平地对待邮件列表上的人,我无法在收到提示时想到一两个以上的特定用例. 因此,除非他们在过去一个月左右更改了某些内容,否则这听起来不是计划中的功能. ..
发布时间:2021-09-22 20:11:01 其他开发

如何通过 Google Chrome 中的 Web Speech API 获取女声

在网页中,我想要一个女声来朗读我的文字.我试图通过以下代码来做到这一点.但现在仍然是男声在说话.我怎样才能安排一个女性的声音来说话我的文字?任何人都可以分享我在谷歌浏览器中工作的正确代码. var voices = speechSynthesis.getVoices();var msg = new SpeechSynthesisUtterance("Hello World!");msg.defa ..
发布时间:2021-09-22 19:47:19 其他开发

使用 SpeechRecognition 更改语音合成语音

我正在将 SpeechRecognition 与我的麦克风一起使用,并通过 SpeechSynthesis 将数据转发给我. 我在页面加载时将声音设为女声,并希望能够通过说“男声"切换为男声,然后转播“我现在是男人".后来我也希望能够做相反的事情 - 当它设置为男声时,说“女声"然后它切换回来. 我目前可以这样做,但男声只会说一次,因为声音不会被保存,只会作为参数传递.因此,接下来说的 ..
发布时间:2021-09-20 18:32:44 前端开发

语音合成事件的问题

我正在使用 SpeechSynthesisUtterance API 开发一个小应用. 我尝试在单词之间启动一个小功能(当它们被发音时): 我使用 boundary 事件:myWords.onboundary = 函数(){...}; 但它不起作用...也许我不明白边界效应是如何工作的. 拜托,你能帮我吗? 谢谢, 托马斯 解决方案 这个简化的示例 说明 ..
发布时间:2021-09-06 19:50:36 前端开发

在 JavaScript 中,对于文本到语音,当 voiceschanged 事件被收听时,语音数组没有任何反应?

与这个文本转语音问题相关,我有以下代码: 首先,我不确定这是否是编写代码的最佳方式,因为它正在初始化,然后将侦听器设置为“调用自身".(似乎有点hacky). 其次,虽然听众得到了“通知",但voices.length仍然是0.voices 数组实际上什么也没有发生.我不得不取消注释这一行: //voices = synth.getVoices();//这行应该是不需要的 这样它就 ..

Google Cloud Text-to-speech 单词时间戳

我正在通过 Google Cloud 的 text-to-speech API 生成语音,我想在说话时突出显示单词. 有没有办法获取口语或句子的时间戳? 解决方案 这个问题似乎很受欢迎,所以我想我会分享我最终做了什么.此方法可能仅适用于英语或类似语言. 我首先在任何导致说话中断的标点符号上拆分文本.每个“句子"都分别转换为语音.生成的音频文件在最后有看似随机的静音量,需要在加入 ..

Android-Chrome 中的 SpeechSynthesis:无法从美国英语更改英语语音

我在 Android-Chrome 上使用语音合成 API.问题是,尽管有 4 种英语语音可用,但浏览器始终使用美国英语,无论代码指定什么.我可以使用其他语言,例如法语,而不是其他英语语音,例如 en-AU、GB 或 IN. 此代码从 getVoices 数组中过滤出英式英语语音对象,并使用第一个说出单词“tomato".问题是这个词总是发音为“to-may-lo"而不是“to-mar-to ..