sfspeechrecognizer相关内容

AVAudioEngine inputNode installTap 重启录音时崩溃

我正在我的应用中实现语音识别.当我第一次向视图控制器展示语音识别逻辑时,一切正常.但是,当我再次尝试呈现视图控制器时,出现以下崩溃: 错误:[0x190bf000] >avae>AVAudioNode.mm:568: CreateRecordingTap: required 条件为 false: IsFormatSampleRateAndChannelCountValid(format)*** ..

SFSpeechRecognizer 多种语言

我正在构建一个支持语音识别并将语音转换为文本的搜索,因此我使用了 SFSpeechRecognizer.但是问题是我需要同时支持多种语言比如 ("en_US", "fr", vi, ar). 主要想法是用户可以用英语说一个单词,另一个用法语说,我希望引擎检测到这一点. 目前,我正在使用它来设置我的主要语言 英文: private let speechRecognizer = S ..

实现“用户停止说话"“SFSpeechRecognizer"的通知

我正在尝试解决这个问题:SFSpeechRecognizer - 检测话语结束 问题在于每次检测到的语音字符串更改时都会触发 SFSpeechRecognizer 回调,但它只会在 60 秒的静音后触发(因此它设置了 isFinal 标志). 建议的技术是在每次回调触发时启动一个 2 秒的计时器,如果计时器已经设置,则首先使其无效. 我已经实施了这项技术.但是,我的计时器回调永远 ..
发布时间:2021-06-09 20:22:51 移动开发

Swift数字将文本命名为Int

我刚刚实现了SFSpeechRecognizer,因为我希望它指示一些数字,但是我遇到的问题是,如果我说“一个",则result.bestTranscription.formattedString是“一个",但是如果我说“十""的结果抛出"10",我该如何设法使一位数字由实际数字而不是交响乐的“一个"来表示. 解决方案 您可以使用NumberFormatter将 numberStyle 设 ..
发布时间:2021-05-16 20:26:51 移动开发

在SFSpeechRecognizer中使用AudioToolbox代替AVFoundation

我必须使用AudioToolbox而不是AVAudioSession向SFSpeechRecognizer提供流.我知道我应该使用AudioQueue,所以我将音频记录导出到CMSampleBuffer以使用识别器读取它.并且在调试时,我看到该缓冲区已添加到SFSpeechAudioBufferRecognitionRequest,但是任务关闭中的代码未执行:既没有结果,也没有错误. 代码有 ..

迅捷:尝试将语音转换为iPhone语音时,iPhone的音量很低

我正在尝试语音识别示例.如果我开始通过麦克风识别语音,那么我会尝试获取iPhone所识别文本的声音.这是工作.但是,声音太低了.你可以指导我吗? 而不是,如果我尝试使用AVSpeechUtterance代码执行简单的按钮操作,则音量正常. 之后,如果我使用startRecognise()方法,则音量太低. 我的代码 func startRecognise() { let a ..

尽管成功获得授权,MacOS上的SFSpeechRecognizer仍然不可用

我正在尝试获取一个笨拙的Objective-C概念证明示例,以便在转录本地音频文件的Catalina上与SFSpeechRecognizer一起运行. 经过一番谷歌搜索后,我设法通过添加带有NSSpeechRecognitionUsageDescription的Info.plist来获得授权,然后获得授权对话框和正确的SFSpeechRecognizerAuthorizationStatus ..
发布时间:2020-08-14 22:47:11 其他开发

重新开始录制时,AVAudioEngine inputNode installTap崩溃

我正在我的应用程序中实现语音识别.当我第一次为视图控制器提供语音识别逻辑时,一切正常.但是,当我尝试再次显示视图控制器时,出现以下崩溃: ERROR: [0x190bf000] >avae> AVAudioNode.mm:568: CreateRecordingTap: required condition is false: IsFormatSampleRateAndChannelC ..

使用SFSpeechRecognizer后,AVSpeechSynthesizer不会说话

因此,我构建了一个使用SFSpeechRecognizer进行语音识别的简单应用程序,并在屏幕上的UITextView中将转换后的语音显示为文本。现在我正试图让手机说出显示的​​文字。它由于某种原因不起作用。 AVSpeechSynthesizer说功能仅在使用SFSpeechRecognizer之前有效。例如,当应用程序启动时,它会在UITextView中显示一些欢迎文本,如果我点按“说出”按钮 ..
发布时间:2018-09-19 14:13:47 移动开发

SFSpeechRecognizer - 检测话语结束

我正在使用iOS 10内置语音识别来攻击一个小项目。我有使用设备麦克风的工作结果,我的语音被非常准确地识别。 我的问题是每个可用的部分转录都会调用识别任务回调,我想要它检测到人们停止说话并使用 isFinal 属性设置为true来调用回调。它没有发生 - 应用程序正在无限期地收听。 SFSpeechRecognizer 是否能够检测到句尾? 这是我的代码 - 它基于在互联网上找到 ..
发布时间:2018-09-17 09:11:20 移动开发