avaudioengine相关内容
我想使用AVAudioEngine制作5频段音频均衡器(60Hz,230Hz,910Hz,4kHz,14kHz).我想通过垂直滑块让用户输入每个频段的增益,并据此调整正在播放的音频.我尝试使用AVAudioUnitEQ来执行此操作,但是播放音频时没有听到任何区别.我试图对值进行硬编码以指定每个频率的增益,但是仍然无法正常工作.这是我的代码: var audioEngine: AVAudioE
..
我一直在使用Apple闪亮的新AVFoundation库,但是到目前为止,我还无法设置AVAudioEngine使用的输入或输出设备(例如USB声卡),我可以似乎在文档中找不到任何东西说甚至有可能. 有人对此有任何经验吗? 解决方案 好,在第十次重新阅读文档之后,我注意到AVAudioEngine具有成员 outputNode (不确定如何我错过了!). 以下代码似乎可以完成这
..
每当取消初始化对象时(例如,在执行退回搜索到另一个ViewController时),以下代码都会导致崩溃,并显示以下错误: 所需条件为假:[AVAudioEngineGraph.mm:4474:GetDefaultMusicDevice:(outputNode)] 由于未捕获的异常"com.apple.coreaudio.avfaudio"而终止应用程序,原因:“所需条件为假:outp
..
我正在制作一个适用于iOS的基本音乐应用,其中按音符会播放相应的声音.我试图将存储在缓冲区中的多种声音以最小的延迟同时播放.但是,我只能在任何时候播放一种声音. 最初,我使用多个AVAudioPlayer对象设置声音,然后将声音分配给每个播放器.虽然它确实可以同时播放多个声音,但似乎无法同时启动两个声音(似乎在第一个声音开始后稍稍延迟了第二个声音).此外,如果我以非常快的速度按下音符,似乎引
..
我已经寻找了很长时间,在放弃之前将其发布在这里作为最后的尝试. 我想检测我当前是否处于静音模式. 我发现了一种变通办法(播放假声音并检查完成情况),但仅当我不在AVAudioSessionCategoryPlayAndRecord模式时,该变通办法才能正常工作. 正是在屏幕上,我可以在其中录制想要实现的音频和视频,从而知道是否应该播放UI声音. 总而言之,我试图找到一种在AVAudio
..
我正在尝试构建一个带有语音按钮的小部件.当我按它时,它应该将语音转换为文本. 但是,当我尝试录制声音时,AVAudioEngine无法启动.是因为“今日扩展"中不允许使用AVAudioEngine吗? 解决方案 在互联网上搜索我似乎找到了答案.简短的答案是“否",您不能录制扩展名中的音频.
..
尝试使用AVAudioSessionModeMeasurement模式将AVAudioSession放入.playAndRecord类别会导致.defaultToSpeaker选项被忽略,导致输出在听筒(也称为接收器)中安静地播放. 解决方案 虽然关于这方面的文字似乎不多,但文档使这种“将音频输出发送到接收器而不是扬声器的最终结果"看起来像可能的预期行为,而不是错误. 让AVAudi
..
我正在尝试使用AVAudioEngine在背景音频文件之上播放多个音频文件. 当我尝试初始化backgroundAudioFile时,应用程序崩溃,提示:Thread 1: Fatal error: 'try!' expression unexpectedly raised an error: Error Domain=com.apple.coreaudio.avfaudio Code=20033
..
只要代码到达 inputNode.installTap(onBus: 0, bufferSize: 1024, format: recordingFormat) {[weak self] (buffer:AVAudioPCMBuffer, when:AVAudioTime),应用程序崩溃,出现以下错误 由于未捕获的异常'com.apple.coreaudio.avfaudio'而终止应用程序
..
我的音乐表演应用程序使用AVAudioEngine播放音频,并使用应用程序间音频将引擎的输出发布到其他应用程序.这使用户可以将音频输入到在同一设备上运行的混音器应用程序中.由于IAA在iOS上已被弃用,而Mac上不支持IAA,因此我尝试用音频单元代替此功能. 我已经使用Xcode模板添加了类型为augn的音频单元扩展,并且我理解internalRenderBlock是实际上返回音频数据的东西
..
AudioPlayerNode是一个实例变量,代码如下: class HXAudioEngine { private var audioEngine: AVAudioEngine = AVAudioEngine() var digitFileUrl: URL? { didSet { if let digitUrl = digitFileUrl {
..
我有一个带有详细渲染回调的应用程序,我怀疑它可以与AVAudioEngine一起使用. 是否可以将我的AUGraph渲染回调(带有多条总线)与AVAudioEngine一起使用? 任何示例代码吗? 解决方案 音频单元API 不建议弃用,仅在其之上构建的AUGraph是不建议使用的. 使用 AudioUnitSetProperty 与kAudioUnitProperty_M
..
我正在尝试研究如何实时更改SCNAudioPlayer的音量. 当前,我有一个SCNAudioSource连接到SCNAudioPlayer.然后将此音频播放器分配给SCNNode,以便我的声音使用SceneKits的空间音频处理. 就目前而言,我可以使用由布尔变量vol触发的SCNAudioSource.volume来更改每个SCNNode的音量.我的代码摘录如下: (audi
..
我的SpriteKit游戏出现问题,该应用程序被电话中断后,无法使用playSoundFileNamed(_ soundFile :, waitForCompletion :)播放音频. (我还在我的应用程序中使用了未受影响的SKAudioNodes,但我确实非常希望能够使用SKAction playSoundFileNamed.) 这是精简版SpriteKit游戏模板中的gameScene
..
我正在使用Swift和Xcode 6开发iOS应用.我想做的是使用AVAudioEngine播放音频文件,直到一切正常.但是,我的意思是我要如何不停地播放它,当它结束播放时又重新开始播放? 这是我的代码: /*==================== CONFIGURATES THE AVAUDIOENGINE ===========*/ audioEngine.reset()
..
在Apple的用于创建AUAudio单元的文档中(此处: https://developer .apple.com/documentation/audiotoolbox/auaudiounit/1387570-initwithcomponentdescription ) 他们声称 单个音频单元子类可以实现多个音频单元,例如,也可以用作生成器的效果或相关效果的集群. 我找不到此在线示例.
..
我正在尝试通过Apples Multipeer Connectivity框架将音频从麦克风流式传输到另一部iPhone.要进行音频捕获和播放,我使用的是AVAudioEngine(非常感谢节奏拳头的回答我通过在输入上安装一个抽头来从麦克风接收数据,由此我得到了AVAudioPCMBuffer,然后将其转换为UInt8数组,然后将其流式传输到另一部手机. 但是当我将数组转换回AVAudioPC
..
我正在我的应用程序中实现语音识别.当我第一次为视图控制器提供语音识别逻辑时,一切正常.但是,当我尝试再次显示视图控制器时,出现以下崩溃: ERROR: [0x190bf000] >avae> AVAudioNode.mm:568: CreateRecordingTap: required condition is false: IsFormatSampleRateAndChannelC
..
我对从麦克风获取的音频进行下采样时遇到问题.我正在使用AVAudioEngine通过以下代码从麦克风中采样: assert(self.engine.inputNode != nil) let input = self.engine.inputNode! let audioFormat = AVAudioFormat(commonFormat: .pcmFormatFloat32, samp
..
我在游戏中使用SKAudioNode()播放背景音乐.我具有播放/暂停功能,一切正常,直到插入耳机.根本没有声音,当我调用暂停/播放功能时出现此错误 AVAudioPlayerNode.mm:333:开始:所需条件为假:_engine-> IsRunning() com.apple.coreaudio.avfaudio",原因:“所需条件为假:_engine-> IsRunning()
..