core-audio相关内容

Swift 3-通过UnsafeMutableRawPointer通过引用传递结构?

在 Core Audio -框架中,用户数据可以通过 UnsafeMutableRawPointer?传递到回调中。我想知道如何通过此 UnsafeMutableRawPointer通过引用传递结构?。在回调内部进行的更改应反映在回调外部。 我建立了一个游乐场进行测试: struct TestStruct { var prop1:UInt32 var prop2:Float64 ..

iOS正弦波生成-听得见的咔嗒声

我正在为iOS创建一个合成器。在玩转并尝试学习核心音频之后,我遇到了一个无法解决的问题。我的正弦波会按固定间隔发出咔嗒声,我猜这与相位有关。我看过有关该主题的几本指南和书籍,所有都表明我做得正确。 如果有人愿意为我看我的代码 static OSStatus renderInput(void * inRefCon,AudioUnitRenderActionFlags * ioActio ..
发布时间:2020-10-09 20:16:50 移动开发

设置带有单声道输入和立体声输出的音频单元iOS

我正在尝试设置一个具有单声道输入和立体声输出功能的音频单元。打算通过左声道输出播放正弦波音调,并通过右声道输出定期播放不同的符号波。 我收到错误消息, 'NSInternalInconsistencyException',原因:错误初始化单元:-50; 当我尝试在此处初始化音频单元时, //初始化音频单元 OSErr err = AudioUnitInit ..
发布时间:2020-10-09 20:16:42 移动开发

如何在Swift中实现非常精确的计时?

我正在开发一种具有琶音/音序功能的音乐应用程序,该功能需要很高的定时精度。目前,使用“计时器”可以达到平均抖动约为5ms的准确度,但最大抖动约为11ms,这对于8、16和9音符的快速琶音来说是不可接受的。特别是第32个音符。 我读过'CADisplayLink'比'Timer'更准确,但是由于它的精确度限制为1/60秒(〜16- 17ms),这似乎比使用 Timer 所实现的方法要不准确。 ..
发布时间:2020-10-09 20:16:41 移动开发

使用AudioConverter更改采样率

我正在尝试对输入音频44.1 kHz至48 kHz进行重新采样。 使用AudioToolbox的 AUAudioUnit .inputHandler 将输入的44.1 kHZ写入到wav文件中(这很正常) 转换44.1 kHz至48 kHz,并将转换后的字节写到文件中。 https://developer.apple.com/documentation/audiotoolbox/1503 ..
发布时间:2020-10-09 20:15:36 移动开发

如何快速将多种音频混合并保存到单个音频中

我有多个音频文件(超过3个)。通过使用 AVAudioEngine 和 AVAudioMixerNode ,我可以将所有音频轨道播放到一个轨道中。我想将混合音频保存在文档目录中。 提供建议以混合多个音频文件并保存在文档目录中。 谢谢 解决方案 尝试一下: func mergeAudioFiles(文件:[URL],完成时间:@转义(_成功:Bool)->()){ let ..
发布时间:2020-10-09 20:15:30 移动开发

CoreAudio获取输出采样率

我正在创建一个Mac OS X CoreAudio命令行程序,并通过AudioUnits专有渲染一些字母数字终端输入到实时音频信号中,以保持尽可能简单。所有工作都可以达到匹配输出采样率的水平。 首先,我使用Addisson Wesley的“学习核心音频”的第07章教程代码CH07_AUGraphSineWave。 / p> 我通过“书”初始化AudioComponent: vo ..
发布时间:2020-10-09 20:15:26 其他开发

无法在AUSampler中保存性能参数

我正在尝试连接性能参数以控制AU Lab中AUSampler的放大器增益,但是无法保存该参数。当我单击另一个选项卡时,我收到一条消息,提示: 您有部分创建的性能参数。任何更改都将丢失。您要继续编辑性能参数还是放弃更改并保留参数编辑器? 有人知道如何最终确定参数吗?我相信我已经正确连接了它,但似乎我错过了最后一步。我还注意到Apple的文档中有一个齿轮图标,显示的性能参数在我的窗口中不可 ..
发布时间:2020-10-09 20:15:22 移动开发

在iOS上从Audio Unit Render Proc触发UI代码

我有一个Multichannel Mixer音频单元,可在iOS应用程序中播放音频文件,并且我需要弄清楚如何更新应用程序的UI并在渲染回调到达最长音频文件(即设置为在总线0上运行)。如下面的代码所示,我正在尝试使用KVO来实现这一点(使用布尔变量 tapesUnderway -AutoreleasePool是必需的,因为此Objective-C代码正在正常运行之外域,请参见 http:// www ..
发布时间:2020-10-09 20:15:19 移动开发

我的自定义音频单元在AU Lab中打开,但Garageband或Ableton无法打开

我在Xcode中创建了一个过滤器AU,作为我正在获取的信号类的项目,我可以在AU Lab中从自己的components文件夹中很好地打开它,但似乎无法在DAW中打开它。谁能帮助我深入了解这一切?可能是.plist文件中的设置吗?代码中没有错误,因为AU在AU实验室中运行良好。如果有人有想法,将不胜感激,我可以提供您可能需要的任何信息。 解决方案 我进行了调查 我证实了自己的怀疑。如果 ..
发布时间:2020-10-09 20:15:16 其他开发

NewTimePitch与混音器

我使用的图形非常类似于Apple提供的示例应用程序。 https://developer.apple.com/library/ios/samplecode/MixerHost/Listings/Classes_MixerHostAudio_m.html#//apple_ref/doc/uid/DTS40010210-Audios_MixerHost DontLinkElementID_6 ..
发布时间:2020-10-09 20:15:13 移动开发

aurioTouch示例应用程序的音频播放/通过不起作用?

根据Apple的描述,aurioTouch示例应用程序假设是“获取音频输入并将其复制到输出”,我认为这意味着该应用程序将播放/通过iPhone麦克风从iPhone扬声器拾取的任何声音。 但是,当我将应用程序加载到iPhone(更新为2.2)时,playthru功能似乎根本无法正常工作。屏幕上的示波器会按预期响应声音和声音,因此应用程序的音频输入部分显然可以正常工作。 是的,我尝试切换应 ..
发布时间:2020-10-09 20:15:08 移动开发

从RemoteIO保存音频的示例?

我已经搜索了一下,但是没有找到任何好的示例或教程来将音频保存到RemoteIO音频单元中。 我的设置:使用MusicPlayer API ,我有几个AUSamplers-> MixerUnit-> RemoteIO 音频播放效果很好。我想添加功能以将音频输出保存到文件。我会在RemoteIO上的渲染回调中执行此操作吗? 任何示例代码的提示或指针都值得赞赏! 解决方案 由于 ..
发布时间:2020-10-09 20:15:04 移动开发

消除录音轨道中的当前播放轨道声音

我希望使用RemoteI / O进行音频录制和播放。我很难理解核心音频,因为我遵循惊人的音频开源。到目前为止,我可以用相同的代码录制和播放,现在我试图通过麦克风录制并通过iphone扬声器播放,以避免在同时使用音频播放和记录。 我在Stack Overflow中看到很多帖子都重复了我的问题,但是我找不到确切的答案。但是我希望看到 Apple来实现文档。 问题: 如何实现 答 ..
发布时间:2020-10-09 20:15:02 移动开发

在Snow Leopard中控制OS X音量

这是对通过Objective-C控制Mac OS X中正在运行的应用程序的音量,介绍了如何将音量设置为10.5或更早版本。 AudioXXXXXGetProperty 和 AudioXXXXXSetProperty (及相关)函数在技术说明TN2223 。 我不是OS X或CoreAudio编程的专家,所以我希望有人弄清楚Snow Leopard的要求,并可以在这里帮助我(和其他人)。 ..
发布时间:2020-10-09 20:12:54 其他开发

适用于iOS应用的多轨mp3播放

我正在做一个涉及播放多轨格式的歌曲(鼓,人声,吉他,钢琴等)的应用程序。我不需要对每个音轨进行任何精美的音频处理,我所需要做的就是播放,暂停和静音/取消静音每个音轨。 我一直在使用AVAudioPlayer的多个实例,但是在进行设备测试时,我注意到曲目在首次播放时的播放非常不同步。此外,当我暂停播放曲目时,它们会继续变得不同步。经过一番研究,我发现AVAudioplayer的延迟太长,无法在 ..
发布时间:2020-10-09 20:11:49 移动开发