core-audio相关内容
我的问题很简单,但很棘手。我要写这行 AUPreset * aPreset =(AUPreset *)CFArrayGetValueAtIndex(mEQPresetsArray,indexPath.row); 在Swift中。诀窍是返回值是 UnsafePointer 。 解决方案 您是否尝试过? 让aPreset = UnsafePoin
..
在 Core Audio -框架中,用户数据可以通过 UnsafeMutableRawPointer?传递到回调中。我想知道如何通过此 UnsafeMutableRawPointer通过引用传递结构?。在回调内部进行的更改应反映在回调外部。 我建立了一个游乐场进行测试: struct TestStruct { var prop1:UInt32 var prop2:Float64
..
使用AudioKit进行声音管理,我注意到这段非常简单的代码存在问题(错误?)。 import AudioKit 类MainViewController:UIViewController { var audioFile:AKAudioFile? var audioPlayer:AKAudioPlayer吗? 覆盖func viewDidLoad(){ super.v
..
我正在为iOS创建一个合成器。在玩转并尝试学习核心音频之后,我遇到了一个无法解决的问题。我的正弦波会按固定间隔发出咔嗒声,我猜这与相位有关。我看过有关该主题的几本指南和书籍,所有都表明我做得正确。 如果有人愿意为我看我的代码 static OSStatus renderInput(void * inRefCon,AudioUnitRenderActionFlags * ioActio
..
我正在尝试设置一个具有单声道输入和立体声输出功能的音频单元。打算通过左声道输出播放正弦波音调,并通过右声道输出定期播放不同的符号波。 我收到错误消息, 'NSInternalInconsistencyException',原因:错误初始化单元:-50; 当我尝试在此处初始化音频单元时, //初始化音频单元 OSErr err = AudioUnitInit
..
我正在开发一种具有琶音/音序功能的音乐应用程序,该功能需要很高的定时精度。目前,使用“计时器”可以达到平均抖动约为5ms的准确度,但最大抖动约为11ms,这对于8、16和9音符的快速琶音来说是不可接受的。特别是第32个音符。 我读过'CADisplayLink'比'Timer'更准确,但是由于它的精确度限制为1/60秒(〜16- 17ms),这似乎比使用 Timer 所实现的方法要不准确。
..
我正在使用以下声音播放: AudioServices AudioServicesPlaySystemSound(aSystemSoundID); 当我在连接到计算机的 iPhone 3G 上测试项目时,收到以下消息: > 2010-09-16 17:29:29.672 > myProject [6528:6def] [17:29:29.672 > ] P
..
我正在尝试对输入音频44.1 kHz至48 kHz进行重新采样。 使用AudioToolbox的 AUAudioUnit .inputHandler 将输入的44.1 kHZ写入到wav文件中(这很正常) 转换44.1 kHz至48 kHz,并将转换后的字节写到文件中。 https://developer.apple.com/documentation/audiotoolbox/1503
..
我有多个音频文件(超过3个)。通过使用 AVAudioEngine 和 AVAudioMixerNode ,我可以将所有音频轨道播放到一个轨道中。我想将混合音频保存在文档目录中。 提供建议以混合多个音频文件并保存在文档目录中。 谢谢 解决方案 尝试一下: func mergeAudioFiles(文件:[URL],完成时间:@转义(_成功:Bool)->()){ let
..
我正在创建一个Mac OS X CoreAudio命令行程序,并通过AudioUnits专有渲染一些字母数字终端输入到实时音频信号中,以保持尽可能简单。所有工作都可以达到匹配输出采样率的水平。 首先,我使用Addisson Wesley的“学习核心音频”的第07章教程代码CH07_AUGraphSineWave。 / p> 我通过“书”初始化AudioComponent: vo
..
我正在尝试连接性能参数以控制AU Lab中AUSampler的放大器增益,但是无法保存该参数。当我单击另一个选项卡时,我收到一条消息,提示: 您有部分创建的性能参数。任何更改都将丢失。您要继续编辑性能参数还是放弃更改并保留参数编辑器? 有人知道如何最终确定参数吗?我相信我已经正确连接了它,但似乎我错过了最后一步。我还注意到Apple的文档中有一个齿轮图标,显示的性能参数在我的窗口中不可
..
我有一个Multichannel Mixer音频单元,可在iOS应用程序中播放音频文件,并且我需要弄清楚如何更新应用程序的UI并在渲染回调到达最长音频文件(即设置为在总线0上运行)。如下面的代码所示,我正在尝试使用KVO来实现这一点(使用布尔变量 tapesUnderway -AutoreleasePool是必需的,因为此Objective-C代码正在正常运行之外域,请参见 http:// www
..
我在Xcode中创建了一个过滤器AU,作为我正在获取的信号类的项目,我可以在AU Lab中从自己的components文件夹中很好地打开它,但似乎无法在DAW中打开它。谁能帮助我深入了解这一切?可能是.plist文件中的设置吗?代码中没有错误,因为AU在AU实验室中运行良好。如果有人有想法,将不胜感激,我可以提供您可能需要的任何信息。 解决方案 我进行了调查 我证实了自己的怀疑。如果
..
我使用的图形非常类似于Apple提供的示例应用程序。 https://developer.apple.com/library/ios/samplecode/MixerHost/Listings/Classes_MixerHostAudio_m.html#//apple_ref/doc/uid/DTS40010210-Audios_MixerHost DontLinkElementID_6
..
根据Apple的描述,aurioTouch示例应用程序假设是“获取音频输入并将其复制到输出”,我认为这意味着该应用程序将播放/通过iPhone麦克风从iPhone扬声器拾取的任何声音。 但是,当我将应用程序加载到iPhone(更新为2.2)时,playthru功能似乎根本无法正常工作。屏幕上的示波器会按预期响应声音和声音,因此应用程序的音频输入部分显然可以正常工作。 是的,我尝试切换应
..
我已经搜索了一下,但是没有找到任何好的示例或教程来将音频保存到RemoteIO音频单元中。 我的设置:使用MusicPlayer API ,我有几个AUSamplers-> MixerUnit-> RemoteIO 音频播放效果很好。我想添加功能以将音频输出保存到文件。我会在RemoteIO上的渲染回调中执行此操作吗? 任何示例代码的提示或指针都值得赞赏! 解决方案 由于
..
我希望使用RemoteI / O进行音频录制和播放。我很难理解核心音频,因为我遵循惊人的音频开源。到目前为止,我可以用相同的代码录制和播放,现在我试图通过麦克风录制并通过iphone扬声器播放,以避免在同时使用音频播放和记录。 我在Stack Overflow中看到很多帖子都重复了我的问题,但是我找不到确切的答案。但是我希望看到 Apple来实现文档。 问题: 如何实现 答
..
我已经将 AVAudioSinkNode 配置为附加到 AVAudioEngine 的 inputNode 像这样: let sinkNode = AVAudioSinkNode(){(时间戳,帧,audioBufferList)-> print中的OSStatus(“ SINK:\(timestamp.pointee.mHostTime)-\(frames)-\(audioBuffe
..
这是对通过Objective-C控制Mac OS X中正在运行的应用程序的音量,介绍了如何将音量设置为10.5或更早版本。 AudioXXXXXGetProperty 和 AudioXXXXXSetProperty (及相关)函数在技术说明TN2223 。 我不是OS X或CoreAudio编程的专家,所以我希望有人弄清楚Snow Leopard的要求,并可以在这里帮助我(和其他人)。
..
我正在做一个涉及播放多轨格式的歌曲(鼓,人声,吉他,钢琴等)的应用程序。我不需要对每个音轨进行任何精美的音频处理,我所需要做的就是播放,暂停和静音/取消静音每个音轨。 我一直在使用AVAudioPlayer的多个实例,但是在进行设备测试时,我注意到曲目在首次播放时的播放非常不同步。此外,当我暂停播放曲目时,它们会继续变得不同步。经过一番研究,我发现AVAudioplayer的延迟太长,无法在
..