core-audio相关内容

AVAudioSequencer导致Deinit/Segue崩溃:“所需条件为假:outputNode"

每当取消初始化对象时(例如,在执行退回搜索到另一个ViewController时),以下代码都会导致崩溃,并显示以下错误: 所需条件为假:[AVAudioEngineGraph.mm:4474:GetDefaultMusicDevice:(outputNode)] 由于未捕获的异常"com.apple.coreaudio.avfaudio"而终止应用程序,原因:“所需条件为假:outp ..
发布时间:2020-09-15 03:44:37 移动开发

iPhone音频:音量微弱(但耳机可以)

我收到了意外的音频行为: 问题-iPhone设备的音量非常微弱,但是如果我插入耳机,则音量非常完美 首先,在未插入任何内容的情况下在iPhone上启动应用. 音频有效,但是它是如此微弱,确实好像是在最小音量下.但已达到最大音量. 现在我插入了耳机.全量.很棒! 拔下耳机.转到(2) 无论是否插入耳机都没关系.这似乎是一个不相关的问题 编辑:此行为是我的应用程序所特有的 ..
发布时间:2020-09-15 02:48:47 移动开发

AVAssetReader读取音频,然后失败

我的应用读取音频并在生产者/消费者设置中播放.使用者线程请求新样本以渲染到硬件.生产者线程使用AVAssetReader将音频数据从磁盘读取到其缓冲区中.生产者线程循环运行,检查是否需要读取更多样本.生产者的缓冲区大小等于4秒钟的音频. 当我指示我的应用程序缓冲音频时,可以成功读取样本,而不会出现错误.当我触发生产者线程开始渲染音频时,会完美播放4秒缓冲区,然后静音.进一步的调查表明,我的资 ..
发布时间:2020-09-15 02:48:37 移动开发

核心音频:使用扬声器,是否可以路由到内部扬声器-AVAudioSessionPortBuiltInReceiver(不连接扬声器)

根据文档,Ther并不是关于路由或获取"AVAudioSessionPortBuiltInReceiver"的端口详细信息的文档. (注意:请再次阅读,与该端口AVAudioSessionPortBuiltInSpeaker无关). 正如我发现的,只有overrideOutputAudioPort只能用于 public enum AVAudioSessionPortOverri ..
发布时间:2020-09-15 02:48:23 移动开发

在运行时更改setPreferredIOBufferDuration会导致核心音频错误-50

我正在编写一个基于音频单元(远程IO)的应用程序,该应用程序以给定的缓冲区大小显示波形.该应用程序最初以0.0001的首选缓冲区大小启动,这导致非常小的缓冲区帧大小(我认为是14帧).比在运行时,我有一个UI元素,它允许通过AVAudioSession的方法setPreferredIOBufferDuration:Error:切换缓冲区帧的大小. 这是其中前两种情况从较小的缓冲区变为较大的缓 ..

使用MusicSequence初始化AVMIDIPlayer

AVMIDIPlayer具有此初始化程序: initWithData:soundBankURL:error: 这是用于从标准MIDI文件读取的初始化程序的补充. 数据是NSData,我假设它是标准MIDI文件格式.那么,如何获取这些数据?好吧,当前创建MIDI序列的方法是AudioToolbox MusicSequence. (AVAudioEngine甚至有这种类型的成员.) ..
发布时间:2020-09-15 02:38:27 移动开发

使用AVAssetReader和ARC绘制波形

我正在尝试应用不同步的答案(使用AVAssetReader绘制波形 ),同时使用ARC.只需要进行少量修改,大部分是发布声明.非常感谢您的答复!我正在使用针对iOS5设备的Xcode 4.2. 但是,在尝试调用整个过程时,我最后只能停留在一条语句上. 此处显示的方法: -(void) importMediaItem { MPMediaItem* item = [self ..

是否可以使用iPhone上的音频单元解码MMS + WMA2流?

我不确定音频单元是否可以在iPhone上的流式音频方案中用作编解码器. 我已经在各个地方阅读了可以完成的文章,但是我还没有看到任何示例或适当的文档.相反,我发现发布的大多数应用程序都使用了ffmpeg和libmms. 感谢您能给我的任何帮助. 解决方案 再来看一遍,似乎iOS仅允许内置音频单元,与Mac OS X不同.内置音频单元在“适用于iOS的音频单元托管指南"->“使用特 ..
发布时间:2020-09-14 00:47:12 移动开发

在ObjectiveC中串联音频缓冲区

首先,我是关于c和目标c的新蜜蜂 我尝试找到音频缓冲区并绘制图形. 我使用音频单元回调来获取音频缓冲区.回调带来了512帧,但是在471帧之后又带来了0.(我不知道这是正常与否.它曾经带来了471帧充满了数字.但是现在不知何故,在471之后有512帧带有0.请让我知道是否是正常的) 无论如何.我可以从回调中获取缓冲区,应用fft并绘制它.这很完美.这是下面的结果.只要我在每个回调中都获 ..
发布时间:2020-09-14 00:38:30 移动开发

iOS Swift读取PCM缓冲区

我有一个Android项目,用于从麦克风Buffer中读取带有PCM数据的short[]数组,以进行实时分析.我需要将此功能转换为iOS Swift.在Android中,它非常简单,看起来像这样. import android.media.AudioFormat; import android.media.AudioRecord; ... AudioRecord recorder = new ..
发布时间:2020-09-14 00:32:38 移动开发

播放声音无延迟iOS

我找不到方法来以低延迟播放真实声音. 我尝试使用AVFoundation音频播放器在500毫秒左右的巨大延迟 因此,我尝试创建系统声音,并且也没有200ms左右的运气延迟,这对我来说并不多,但没有用.我最多需要50毫秒. 请确保我的声音采样音色清晰无声. SystemSoundID cID; BOOL spinitialized; -(IBAction)doInit { ..
发布时间:2020-09-13 23:56:34 移动开发

在iOS上将立体声音频拆分为单声道流

对此表示歉意.我见过很多问题,但没有很好的答案. 我正在尝试将iPod音乐从iPod库导出到两个mono caf文件.如何在iOS上执行此操作?我目前正在使用Objective C. 谢谢! 更新:我已经设法从以下位置的Apple处获得示例代码:我的代码现在将导入媒体文件,并输出为可以正常播放的有效caf文件.我的问题是在写缓冲区之前我无法弄清楚如何修改缓冲区.这是我到目前为止的 ..
发布时间:2020-09-13 23:25:51 移动开发

如何为我的音频应用程序获得可靠的时序?

我有一个音频应用程序,其中所有声音生成工作都是通过纯数据(使用libpd)完成的. 我已经快速编码了一个特殊的音序器,该音序器控制合成音色引擎在纯数据中播放的多个音序的开始/停止播放. 直到现在,我完全避免在应用程序的任何方面使用Core Audio或AVFoundation,因为我对它们一无所知,而且它们似乎都需要C或Objective C编码,对此我几乎一无所知./p> 但是,在 ..
发布时间:2020-09-13 23:14:47 移动开发

从音频单元的渲染线程调用MusicDeviceMIDIEvent

关于MusicDeviceMIDIEvent,我不了解一件事.在我见过的每个示例中(搜索过Github和Apple示例),总是在主线程中使用它.现在,为了使用样本偏移量参数,文档指出: inOffsetSampleFrame: 如果要从音频单元的渲染线程安排MIDI事件,则可以提供一个 在下一个音频单元渲染中应用该事件时,音频单元可以应用的采样偏移量. 这使您可以安排采样时间,即应用MIDI ..
发布时间:2020-09-13 22:43:40 移动开发

AUGraph弃用是否意味着不再有音频渲染回调?

我有一个带有详细渲染回调的应用程序,我怀疑它可以与AVAudioEngine一起使用. 是否可以将我的AUGraph渲染回调(带有多条总线)与AVAudioEngine一起使用? 任何示例代码吗? 解决方案 音频单元API 不建议弃用,仅在其之上构建的AUGraph是不建议使用的. 使用 AudioUnitSetProperty 与kAudioUnitProperty_M ..
发布时间:2020-09-13 22:35:06 其他开发

反应本地音频可视化

因此,我正在使用react-native-audio包来播放预加载的音频文件并捕获用户的录制音频.我想做的就是将音频转换为某种数据,以便进行可视化和分析. Web似乎有多种选择,但是在这个方向上没有太多专门针对React Native的选择.我将如何实现呢?谢谢. 解决方案 我只是对这篇文章感到震惊,我正在构建一个React Native Waveform可视化工具,仍然可以在androi ..
发布时间:2020-09-13 22:03:02 其他开发

快速将浮点数组写入WAV音频文件

我现在有这个流程:我使用AudioEngine录制音频,将其发送到音频处理库并获得音频缓冲区,然后我很想将其写入到wav文件中,但是我完全困惑如何迅速做到这一点. 我从另一个stackoverflow答案中尝试了此代码段,但它写入了一个空且损坏的文件.(//get data from library var len : CLong = 0 let res: UnsafePointer ..
发布时间:2020-09-13 22:00:03 移动开发