core-audio相关内容
每当取消初始化对象时(例如,在执行退回搜索到另一个ViewController时),以下代码都会导致崩溃,并显示以下错误: 所需条件为假:[AVAudioEngineGraph.mm:4474:GetDefaultMusicDevice:(outputNode)] 由于未捕获的异常"com.apple.coreaudio.avfaudio"而终止应用程序,原因:“所需条件为假:outp
..
我有一个AudioTapProcessor附加到AVPlayerItem. 它将调用 static void tap_ProcessCallback(MTAudioProcessingTapRef tap, CMItemCount numberFrames, MTAudioProcessingTapFlags flags, AudioBufferList *bufferListInOut, CMI
..
我收到了意外的音频行为: 问题-iPhone设备的音量非常微弱,但是如果我插入耳机,则音量非常完美 首先,在未插入任何内容的情况下在iPhone上启动应用. 音频有效,但是它是如此微弱,确实好像是在最小音量下.但已达到最大音量. 现在我插入了耳机.全量.很棒! 拔下耳机.转到(2) 无论是否插入耳机都没关系.这似乎是一个不相关的问题 编辑:此行为是我的应用程序所特有的
..
我的应用读取音频并在生产者/消费者设置中播放.使用者线程请求新样本以渲染到硬件.生产者线程使用AVAssetReader将音频数据从磁盘读取到其缓冲区中.生产者线程循环运行,检查是否需要读取更多样本.生产者的缓冲区大小等于4秒钟的音频. 当我指示我的应用程序缓冲音频时,可以成功读取样本,而不会出现错误.当我触发生产者线程开始渲染音频时,会完美播放4秒缓冲区,然后静音.进一步的调查表明,我的资
..
根据文档,Ther并不是关于路由或获取"AVAudioSessionPortBuiltInReceiver"的端口详细信息的文档. (注意:请再次阅读,与该端口AVAudioSessionPortBuiltInSpeaker无关). 正如我发现的,只有overrideOutputAudioPort只能用于 public enum AVAudioSessionPortOverri
..
我正在编写一个基于音频单元(远程IO)的应用程序,该应用程序以给定的缓冲区大小显示波形.该应用程序最初以0.0001的首选缓冲区大小启动,这导致非常小的缓冲区帧大小(我认为是14帧).比在运行时,我有一个UI元素,它允许通过AVAudioSession的方法setPreferredIOBufferDuration:Error:切换缓冲区帧的大小. 这是其中前两种情况从较小的缓冲区变为较大的缓
..
将AVAudioSessionModeMeasurement与AVAudioSessionCategoryPlayAndRecord一起使用曾在iOS 5.x,6.x和7.0下正常工作,但现在导致iOS 7.1下某些(并非所有)设备的扬声器音量低/没有声音.这是代码: NSError* error = nil; // Set Aduio Session category [audioSess
..
AVMIDIPlayer具有此初始化程序: initWithData:soundBankURL:error: 这是用于从标准MIDI文件读取的初始化程序的补充. 数据是NSData,我假设它是标准MIDI文件格式.那么,如何获取这些数据?好吧,当前创建MIDI序列的方法是AudioToolbox MusicSequence. (AVAudioEngine甚至有这种类型的成员.)
..
我正在尝试应用不同步的答案(使用AVAssetReader绘制波形 ),同时使用ARC.只需要进行少量修改,大部分是发布声明.非常感谢您的答复!我正在使用针对iOS5设备的Xcode 4.2. 但是,在尝试调用整个过程时,我最后只能停留在一条语句上. 此处显示的方法: -(void) importMediaItem { MPMediaItem* item = [self
..
这是下一个和上一个按钮的代码 - (IBAction)nextPressed:(id)sender { Previousbutton.enabled=YES; Nextbutton.enabled = NO; NSLog(@"TOTAL TRACK:%d",TotalTrackCount); // TrackCount = TotalTrackCount
..
我不确定音频单元是否可以在iPhone上的流式音频方案中用作编解码器. 我已经在各个地方阅读了可以完成的文章,但是我还没有看到任何示例或适当的文档.相反,我发现发布的大多数应用程序都使用了ffmpeg和libmms. 感谢您能给我的任何帮助. 解决方案 再来看一遍,似乎iOS仅允许内置音频单元,与Mac OS X不同.内置音频单元在“适用于iOS的音频单元托管指南"->“使用特
..
首先,我是关于c和目标c的新蜜蜂 我尝试找到音频缓冲区并绘制图形. 我使用音频单元回调来获取音频缓冲区.回调带来了512帧,但是在471帧之后又带来了0.(我不知道这是正常与否.它曾经带来了471帧充满了数字.但是现在不知何故,在471之后有512帧带有0.请让我知道是否是正常的) 无论如何.我可以从回调中获取缓冲区,应用fft并绘制它.这很完美.这是下面的结果.只要我在每个回调中都获
..
我有一个Android项目,用于从麦克风Buffer中读取带有PCM数据的short[]数组,以进行实时分析.我需要将此功能转换为iOS Swift.在Android中,它非常简单,看起来像这样. import android.media.AudioFormat; import android.media.AudioRecord; ... AudioRecord recorder = new
..
我找不到方法来以低延迟播放真实声音. 我尝试使用AVFoundation音频播放器在500毫秒左右的巨大延迟 因此,我尝试创建系统声音,并且也没有200ms左右的运气延迟,这对我来说并不多,但没有用.我最多需要50毫秒. 请确保我的声音采样音色清晰无声. SystemSoundID cID; BOOL spinitialized; -(IBAction)doInit {
..
对此表示歉意.我见过很多问题,但没有很好的答案. 我正在尝试将iPod音乐从iPod库导出到两个mono caf文件.如何在iOS上执行此操作?我目前正在使用Objective C. 谢谢! 更新:我已经设法从以下位置的Apple处获得示例代码:我的代码现在将导入媒体文件,并输出为可以正常播放的有效caf文件.我的问题是在写缓冲区之前我无法弄清楚如何修改缓冲区.这是我到目前为止的
..
我有一个音频应用程序,其中所有声音生成工作都是通过纯数据(使用libpd)完成的. 我已经快速编码了一个特殊的音序器,该音序器控制合成音色引擎在纯数据中播放的多个音序的开始/停止播放. 直到现在,我完全避免在应用程序的任何方面使用Core Audio或AVFoundation,因为我对它们一无所知,而且它们似乎都需要C或Objective C编码,对此我几乎一无所知./p> 但是,在
..
关于MusicDeviceMIDIEvent,我不了解一件事.在我见过的每个示例中(搜索过Github和Apple示例),总是在主线程中使用它.现在,为了使用样本偏移量参数,文档指出: inOffsetSampleFrame: 如果要从音频单元的渲染线程安排MIDI事件,则可以提供一个 在下一个音频单元渲染中应用该事件时,音频单元可以应用的采样偏移量. 这使您可以安排采样时间,即应用MIDI
..
我有一个带有详细渲染回调的应用程序,我怀疑它可以与AVAudioEngine一起使用. 是否可以将我的AUGraph渲染回调(带有多条总线)与AVAudioEngine一起使用? 任何示例代码吗? 解决方案 音频单元API 不建议弃用,仅在其之上构建的AUGraph是不建议使用的. 使用 AudioUnitSetProperty 与kAudioUnitProperty_M
..
因此,我正在使用react-native-audio包来播放预加载的音频文件并捕获用户的录制音频.我想做的就是将音频转换为某种数据,以便进行可视化和分析. Web似乎有多种选择,但是在这个方向上没有太多专门针对React Native的选择.我将如何实现呢?谢谢. 解决方案 我只是对这篇文章感到震惊,我正在构建一个React Native Waveform可视化工具,仍然可以在androi
..
我现在有这个流程:我使用AudioEngine录制音频,将其发送到音频处理库并获得音频缓冲区,然后我很想将其写入到wav文件中,但是我完全困惑如何迅速做到这一点. 我从另一个stackoverflow答案中尝试了此代码段,但它写入了一个空且损坏的文件.(//get data from library var len : CLong = 0 let res: UnsafePointer
..