core-audio相关内容

我应该使用哪种框架在iOS中以低延迟播放音频文件(WAV,MP3,AIFF)?

iOS具有各种音频框架,从较高的级别允许您简单地播放指定的文件,到较低的级别可以使您获取原始PCM数据,以及介于两者之间的所有内容。对于我们的应用程序,我们只需要播放外部文件(WAV,AIFF,MP3),但是我们需要响应按下按钮来播放,并且我们需要使延迟尽可能小。 (用于在现场制作中排队。) 现在,AVAudioPlayer可以播放简单的文件资产(通过其URL),但是实际上启动声音的延迟是太 ..
发布时间:2020-10-09 20:11:46 移动开发

安排音频文件以备将来使用AVAudioTime播放

我正在尝试找出如何在不久的将来正确安排音频文件。我的实际目标是播放多个同步的曲目。 因此,如何正确配置“ aTime”,使其从现在开始大约需要0.3秒。 我想我可能也需要hostTime,但是我不知道如何正确使用它 func createStartTime()-> AVAudioTime? { var time:AVAudioTime? 如果let lastPlayer = s ..
发布时间:2020-10-09 20:11:41 移动开发

按下主页按钮时如何显示红色状态栏?

在我的重新编码应用程序正在进行某些录制时,按下主屏幕按钮时如何显示红色状态栏? 我检查了以下问题:在录制时如何在iOS状态下隐藏红色条? 但是,我使用Core Audio和Extended Audio File Services进行记录。我找不到任何适当的文档以编程方式执行此操作。 解决方案 我相信从 按下主屏幕按钮时状态栏为红色 您在询问是否可以设置当您的应用程序 ..
发布时间:2020-10-09 20:10:15 移动开发

iOS上是否已弃用AUGraph?如果是这样,什么时候?

我听说有传言称 AUGraph 在iOS上已被弃用,例如在此Twitter帖子: @marcoarment您对@atpfm的评论需要重写您的音频引擎:即将出现的AUGraph弃用的b / c,还是其他? AUGraph 实际上已被弃用,如果是,何时?有人可以指出我的意思吗? 解决方案 确实,它将如WWDC中所述弃用。谈谈 (注意:图片来自核心音频邮件列表) ..
发布时间:2020-10-09 20:10:10 移动开发

使用Swift导入aurioTouch库

我正试图将Objective-C应用程序转换为Swift。 我想在 aurioTouch ,所以我创建了以下桥接头文件: #import" AudioController.h" 但是我在DCRejectionFilter.h,BufferManager.h,FFTHelper.h中收到以下错误: 未知类型名'class';您是说'Class'吗? 期 ..
发布时间:2020-10-09 20:10:07 移动开发

管理AudioKit生命周期的正确方法是什么?

我正在构建一个必须跟踪用户麦克风输入幅度的应用程序。 AudioKit有很多方便的对象可以满足我的需求:AKAmplitudeTracker等。我尚未找到有关如何启动AudioKit,开始跟踪等的任何可行信息。 目前,与AudioKit初始化相关的所有代码都在我的viewDidLoad方法中录音机模块的根VC。这是不正确的,因为会发生随机错误,而且我无法跟踪出什么问题了。下面的代码显示了我 ..
发布时间:2020-10-09 20:08:40 移动开发

什么是交错音频?

我在核心音频文档中多次看到这种交错的音频。有人可以解释一下此属性的真正功能吗。 解决方案 通常来说,如果您有2个频道,我们称其L为左,R为右,并且您要传输或存储20个样本,则: Interleaved = LRLRLRLRLRLRLRLRLRLRLRLR 非交错= LLLLLLLLLLRRRRRRRRRRR ..
发布时间:2020-10-09 20:08:32 移动开发

将多个音频文件合并为一个

我正在尝试允许选择单词(mp3音频样本)并添加到句子中,按一下播放后,它们将按顺序播放所有单词,并可以选择保存该组合文件。 解决方案 MP3是一种流格式,这意味着它在文件的开头或结尾没有一堆元数据。尽管这有很多缺点,但缺点之一是您可以将MP3文件连接成一个文件,然后播放。 您可以通过串联到NSMutableData来完成此操作,其缺点是您可能会用完内存。另一个选择是使用NSFileH ..
发布时间:2020-10-09 20:08:30 移动开发

AVAssetReader和音频队列流媒体问题

我在这里的AVAssetReader遇到问题,无法从iPod库中获取样本并通过音频队列将其流式传输。我找不到任何这样的示例,所以我尝试实现自己的示例,但似乎以某种方式在音频队列的回调函数处“拧紧了AssetReader”。具体来说,它在执行copyNextSampleBuffer时失败,即在尚未完成时返回null。我已经确定了指针的存在,因此,如果有人可以提供帮助,它将非常有用。 下面是我使 ..
发布时间:2020-10-09 20:08:00 移动开发

CoreAudio:更改麦克风的采样率并在回调中获取数据?

这是我第一次尝试使用CoreAudio,但是我的目标是捕获麦克风数据,将其重新采样为新的采样率,然后捕获原始的16位PCM数据。 我的策略是用麦克风制作AUGraph->采样率转换器,然后有一个回调,该回调从转换器的输出获取数据(我希望是在新采样率?)。 现在,我的回调函数仅使用空的AudioBufferList *触发,这显然是不正确的。我应该如何设置?我在做什么错了? 代码如 ..
发布时间:2020-10-09 20:07:55 移动开发

iPhone上的NSSound

我一直在寻找如何在iphone上播放声音的方法,我认为这类似于: [[NSSound soundNamed:@“ cat.mp3”]播放]; 但是NSSound在AppKit上...有什么建议吗?我知道有一个非常简单的答案,但是今天我的搜索没有呈现任何结果... 解决方案 新AVFoundation类是在iPhone上播放声音的最简单方法,尽管它仅适用于固件2. ..
发布时间:2020-10-04 04:25:10 移动开发

互通AudioBuffer.mData以显示音频可视化

我正在尝试实时处理音频数据,以便可以基于从麦克风输入的声音在屏幕上显示频谱分析仪/可视化效果.我正在使用AVFoundation的AVCaptureAudioDataOutputSampleBufferDelegate来捕获音频数据,这将触发代理功能captureOutput.功能如下: func captureOutput(_ output: AVCaptureOutput, didOut ..
发布时间:2020-09-15 04:25:18 移动开发

iOS.使用USB麦克风以96kHz录制

我正在尝试使用RØDEiXY USB麦克风以96kHz的频率进行录音. 录制没有错误,当我在连接麦克风的情况下启动应用程序时,我看到AVAudioSession以96kHz采样率成功运行. 但是,如果我看一下频谱,很明显,除了对20kHz以上的噪声进行重采样之外,没有任何其他东西: 为进行比较,这是使用与USB麦克风(RØDERec)捆绑在一起的应用程序进行的同一录音的频谱: 要以本机96kH ..
发布时间:2020-09-15 04:05:48 移动开发

初始化The Amazing Audio Engine之后,视频录制(使用GPUImage)中没有音频

我在项目中使用了两个第三方工具.一个是"The Amazing Audio Engine" .我将此用于音频过滤器.另一个是GPUImage,或更具体地说,是 GPUImageMovieWriter .录制视频时,我会将音频录制与视频合并.这很好.但是,有时我不使用Amazing Audio Engine,而只是使用GPUImageMovieWriter录制普通视频.问题是,即使在初始化了“惊人的 ..

带有CallKit的VOIP应用中的音频短路

我将 SpeakerBox 应用用作我的VOIP应用程序的基础.我设法使所有工作正常进行,但似乎无法摆脱从麦克风到设备扬声器的音频“短路". 换句话说,当我打电话时,我可以在扬声器中听到自己的声音,也可以听到对方的声音.我该如何更改? AVAudioSession设置: AVAudioSession *sessionInstance = [AVAudioSession s ..
发布时间:2020-09-15 03:58:04 其他开发

在iOS中录制语音时,如何以编程方式生成音频波形?

如何在iOS中录制语音时以编程方式生成音频波形? m正在iOS中处理语音调制音频...一切工作正常...只需要一些最佳的简单方法就可以根据检测到的噪声生成音频波形... 请不要告诉我... speakhere和auriotouch ...的代码教程.我需要本机应用程序开发人员的一些最佳建议. 我已经录制了音频,并在录制后开始播放.我已经创建了波形并附加了屏幕截图.但是必须在音频录 ..
发布时间:2020-09-15 03:44:52 移动开发