audiounit相关内容

IOS:是否可以同时使用多个麦克风录音

所有最近的iPhone都有2个以上的麦克风。可以同时用所有麦克风录音吗?如果这是可能的,最好的iOS音频库是什么(AudioKit、EzAudio、AudioUnits、CoreAudio)? AudioKit和EzAudio中未提及此功能。 推荐答案 我在文档中没有看到任何有关可能进行多麦克风音频捕获的内容。They specify that you can choose a spe ..
发布时间:2022-09-01 19:53:13 移动开发

未调用MacOS Catalina 10.15.7 AudioUnit麦克风通知回调

我正在使用 AudioUnit v2(C) API 在 ObjC++ 中仅使用命令行工具(主要是 clang)构建命令行工具.输出到扬声器工作正常,但从未调用来自麦克风回调的输入.iTerm或终端主机可以根据“设置"进行访问.可执行文件还具有嵌入的info.plist,尽管我认为这不相关. 精确的安全模型对我来说还不清楚,如果它起作用的话,它看起来像是一个主要的安全漏洞(从终端运行的任何内容 ..
发布时间:2021-05-31 19:28:04 移动开发

启动AVAssetReader停止对远程I/O AudioUnit的回调

我正在使用AVAssetReader从iPod Library中读取音频.(请参阅此处)然后,我将读取缓冲区并播放它通过AudioUnit.我正在尝试使代码在播放时在音频中流式传输.但是,如果AVAssetReader正在运行,则AudioUnit将停止接收对其kAudioUnitProperty_SetRenderCallback的调用. 我简化了代码,仅在AudioUnits回调中播放文 ..
发布时间:2021-05-17 19:56:56 移动开发

Swift中的AURenderCallback

我正在创建一个使用音频单元的应用程序,虽然在Objective-C中有很多代码示例(包括Apple自己的aurioTouch等),但我还是尝试在Swift中编写整个代码. 我已经能够设置AUGraph并通过它运行一些音频,但是我似乎无法弄清楚渲染回调的语法.我尝试了几种方法: 方法1:直接创建AURenderCallback let render:AURenderCallback ..
发布时间:2021-05-16 20:58:29 移动开发

iOS音频单元:什么时候需要使用AUGraph?#39?

我对iOS编程完全陌生(我更是一个Android人士..)并且必须构建一个处理音频DSP的应用程序.(我知道这不是接触iOS开发人员的最简单方法;)) 该应用必须能够接受来自的输入: 1-内置麦克风2- iPod库 然后可以将过滤器应用于输入声音,并将结果输出到: 1-扬声器2-记录到文件 我的问题如下:为了能够对输入应用多个过滤器,是否需要AUGr​​aph?或者可 ..
发布时间:2021-05-16 20:37:42 移动开发

iOS-AudioUnitInitialize返回错误代码561017449

我在App Store中有一个应用程序,该应用程序使用AudioUnit录制音频. 大约每周一次,我发现对于一些狂热的用户,对 AudioUnitInitialize 的调用失败,错误代码561017449也为0x21707269或"irp!". 此错误代码是什么意思?我一直找不到它的记录.另外: 〜$ macerror 561017449/usr/bin/macerror5.16第 ..
发布时间:2021-05-16 20:25:20 移动开发

我可以使用AVAudioEngine来读取文件,使用音频单元进行处理并写入文件,其速度比实时速度快吗?

我正在开发一个使用AVAudioEngine进行各种操作的iOS应用,包括将音频录制到文件,使用音频单元将效果应用到该音频以及播放应用了效果的音频.我也使用水龙头将输出也写入文件.完成此操作后,它将在播放音频时实时写入文件. 是否可以设置从文件读取,使用音频单元处理声音并输出到文件的AVAudioEngine图形,但该图形要比实时速度快(即,与硬件处理速度一样快) ?这样的用例是输出几分钟的 ..
发布时间:2020-11-30 21:41:40 移动开发

使用音频单元记录回调[iOS] [Swift]处理数据

我正在创建一个跨平台的VOIP应用程序,该应用程序使用UDP发送和接收数据.我正在使用音频单元进行实时记录和播放.在处理原始数据时,通信是快速而流畅的,但是当我涉及到像 OPUS 这样的编解码器时,从iPhone编码并发送到Android的数据在其间会发出咔嗒声.我一直在努力解决这个问题. 从Android到iPhone的编码数据可以完美播放,并且没有任何问题.我正在使用 TPCircula ..
发布时间:2020-11-20 05:01:37 移动开发

音频单元无法在Logic中运行; .exp _Entry在链接器中未定义

背景 我正在尝试让Apple的示例TremoloUnit在Logic 9中运行。来自各种论坛和 SO答案,苹果示例的问题似乎是Logic 9(以及许多其他AU主机)使用了旧的Carbon资源。根据本技术说明,添加适当的 .r 文件应提供所需的向后兼容性,因此我添加了一个与示例匹配的 .r 。 plist 。 问题 如果我包含 _TremoloUnitEntry 在我的 .exp ..
发布时间:2020-10-09 20:24:11 其他开发

带有奇数长度缓冲区的AudioUnitRender错误-50

我有一个配置了AVAudioSessionCategoryPlayAndRecord的RemoteIO单元。我发现其中有一些奇怪的行为。我打开该应用程序,并在audioUnit完全初始化之前立即将其关闭(由于我退出应用程序太早,它实际上是在后台初始化)。接下来,将应用程序置于前台,然后立即重新启动,我看到AudioUnitRender连续失败,错误为-50。我发现inNumberFrames为11 ..
发布时间:2020-10-09 20:18:24 移动开发

iOS正弦波生成-听得见的咔嗒声

我正在为iOS创建一个合成器。在玩转并尝试学习核心音频之后,我遇到了一个无法解决的问题。我的正弦波会按固定间隔发出咔嗒声,我猜这与相位有关。我看过有关该主题的几本指南和书籍,所有都表明我做得正确。 如果有人愿意为我看我的代码 static OSStatus renderInput(void * inRefCon,AudioUnitRenderActionFlags * ioActio ..
发布时间:2020-10-09 20:16:50 移动开发

设置带有单声道输入和立体声输出的音频单元iOS

我正在尝试设置一个具有单声道输入和立体声输出功能的音频单元。打算通过左声道输出播放正弦波音调,并通过右声道输出定期播放不同的符号波。 我收到错误消息, 'NSInternalInconsistencyException',原因:错误初始化单元:-50; 当我尝试在此处初始化音频单元时, //初始化音频单元 OSErr err = AudioUnitInit ..
发布时间:2020-10-09 20:16:42 移动开发

无法在AUSampler中保存性能参数

我正在尝试连接性能参数以控制AU Lab中AUSampler的放大器增益,但是无法保存该参数。当我单击另一个选项卡时,我收到一条消息,提示: 您有部分创建的性能参数。任何更改都将丢失。您要继续编辑性能参数还是放弃更改并保留参数编辑器? 有人知道如何最终确定参数吗?我相信我已经正确连接了它,但似乎我错过了最后一步。我还注意到Apple的文档中有一个齿轮图标,显示的性能参数在我的窗口中不可 ..
发布时间:2020-10-09 20:15:22 移动开发

在iOS上从Audio Unit Render Proc触发UI代码

我有一个Multichannel Mixer音频单元,可在iOS应用程序中播放音频文件,并且我需要弄清楚如何更新应用程序的UI并在渲染回调到达最长音频文件(即设置为在总线0上运行)。如下面的代码所示,我正在尝试使用KVO来实现这一点(使用布尔变量 tapesUnderway -AutoreleasePool是必需的,因为此Objective-C代码正在正常运行之外域,请参见 http:// www ..
发布时间:2020-10-09 20:15:19 移动开发

我的自定义音频单元在AU Lab中打开,但Garageband或Ableton无法打开

我在Xcode中创建了一个过滤器AU,作为我正在获取的信号类的项目,我可以在AU Lab中从自己的components文件夹中很好地打开它,但似乎无法在DAW中打开它。谁能帮助我深入了解这一切?可能是.plist文件中的设置吗?代码中没有错误,因为AU在AU实验室中运行良好。如果有人有想法,将不胜感激,我可以提供您可能需要的任何信息。 解决方案 我进行了调查 我证实了自己的怀疑。如果 ..
发布时间:2020-10-09 20:15:16 其他开发