core-audio相关内容
我正在制作诸如从 iPod 库流式传输音频、通过网络或蓝牙发送数据以及使用音频队列播放之类的东西. 感谢这个问题和代码.帮了我很多. 我有两个问题. 我应该从一台设备向另一台设备发送什么信息?CMSampleBufferRef?音频缓冲?移动数据?音频队列缓冲区?包?我不知道. 当应用程序完成播放时,它崩溃了,我收到错误 (-12733).我只想知道如何处理错误而不是让它崩
..
我在我的应用中使用了 auriotouch 代码,当我录制音频时,它会显示音频波.因此,在录制声音时,麦克风会识别音频输入,然后波会根据麦克风接收到的任何声音做出相应的动作.到目前为止还好.但是现在,当我点击播放按钮播放我刚刚录制的声音时,麦克风的输入应该关闭,这样波形只会根据我之前录制的音频起作用,即使我说话,波形也不应该起作用它会播放之前录制的音频. 因此,它更像是将麦克风的输入静音,以
..
录音机不需要未压缩的线性 PCM 音频.压缩的 AMR 就可以了.为录制音频而构建的 iPhone 框架非常简单,但我发现的用于设置音频格式(来自 Apple)的唯一示例使用 LinearPCM.我已经尝试了各种其他的值组合,但似乎无法得到任何工作. 有没有人有任何实际记录AMR的代码? 编辑:AMR 格式是设置数据类型的选项之一,但其他选项(数据包大小、帧大小等)无论我设置为什么似乎
..
我正在尝试在我的应用程序在后台唤醒但不是最前沿后启动 kAudioSessionCategory_RecordAudio(例如在重大位置更改期间,我看到商店中的其他应用程序这样做,所以我知道这是可能的).但是,每当我尝试像这样开始音频会话时 CheckError(AudioQueueStart(queue,空值),"AudioQueueStart 失败"); 我收到此错误: 错误
..
我对iOS编程完全陌生(我更是一个Android人士..)并且必须构建一个处理音频DSP的应用程序.(我知道这不是接触iOS开发人员的最简单方法;)) 该应用必须能够接受来自的输入: 1-内置麦克风2- iPod库 然后可以将过滤器应用于输入声音,并将结果输出到: 1-扬声器2-记录到文件 我的问题如下:为了能够对输入应用多个过滤器,是否需要AUGraph?或者可
..
我必须使用AudioToolbox而不是AVAudioSession向SFSpeechRecognizer提供流.我知道我应该使用AudioQueue,所以我将音频记录导出到CMSampleBuffer以使用识别器读取它.并且在调试时,我看到该缓冲区已添加到SFSpeechAudioBufferRecognitionRequest,但是任务关闭中的代码未执行:既没有结果,也没有错误. 代码有
..
我们正在尝试使用AUGraph将变速单元与输出单元连接.这是我们当前的代码: 可变图:AUGraph?var varispeedNode:AUNode = 0var varispeedUnit:AudioUnit?var outputNode:AUNode = 0var outputUnit:AudioUnit?init(_客户端:UDPClient,_ tcpClient:TCPClient,
..
这里的目标是通过AVCaptureDataOutput通过视频创建一个mp4文件,并通过CoreAudio录制音频.然后将两者的CMSampleBuffers发送到具有AVAssetWriterInput(AVMediaTypeVideo)和AVAssetWriterInput(AVMediaTypeAudio)的AVAssetWriter 我的音频编码器将AudioBuffer复制到新的C
..
我正在尝试使用Core Audio AudioQueue的(Swift 3)播放纯正弦波音. 它的播放效果很好,但是每次我的AudioQueueOutputCallback调用以用音频数据填充新缓冲区时,我都会听到爆满的声音. 我的AudioStreamer类如下: let kNumberBuffers = 3协议AudioStreamerDelegate {func reques
..
多年来,我一直在互联网上搜寻,试图找出造成此错误的原因,但我一直陷于困境.我一直在遵循Apple Developer文档中的有关使用Audio Services记录音频的内容,无论如何我都会不断收到此错误. 我可以使用 AVAudioRecorder 将音频很好地记录为任何格式,但是我的最终结果是从输入数据中获取标准化的浮点数组,以便对其应用FFT(对不起,短语不对.我是音频编程的新手.)
..
在我的应用中,我使用的是“播放和录制"类别: UInt32 sessionCategory = kAudioSessionCategory_PlayAndRecord;CheckError(AudioSessionSetProperty(kAudioSessionProperty_AudioCategory,sizeof(sessionCategory),& sessionCategory),
..
我必须使用基于帧的方法将视频转换为带音频的慢动作.以下链接是很多帮助,这是反向-AVAsset-高效 在解决方案中,我可以更改缓冲区的时间戳并获得慢动作视频. 用于videoSamples中的示例{varpresentationTime = CMSampleBufferGetPresentationTimeStamp(样本)//更改时间戳以实现慢动作presentationTime.tim
..
我有自己的用C ++编写的声音引擎,它具有一些自定义功能.我的引擎中已解码并处理了PCM值,但我需要通过IOS上的库以某种方式播放此值.它基于回调系统工作.第三方请求具有给定参数的回调,例如numberOfFrames,pointerToFillData等. 我是IOS Audio的新手,我不知道如何完成这项工作.在Android上, Oboe 是执行此操作的库. 我找到了一些自定义库
..
对于我的iOS应用程序,我需要将存储在NSData对象中的MP3文件转换为AAC格式,该文件也将存储在NSData对象中,以供日后流式传输.我还在转换之间进行了一些DSP操作,因此我利用AudioFileOpenWithCallbacks打开了现有的内存中MP3文件,并且效果很好. 但是,我在使用AudioFileInitializeWithCallbacks(AFIWCB)创建NSMuta
..
首先,提供一些背景信息:我正在编写一个MacOS/X应用程序,该应用程序使用CoreAudio从CoreAudio设备的输入流中接收音频信号,对音频进行一些实时处理,然后将其发送回该音频CoreAudio设备的输出流供用户收听. 此应用程序使用较低级别的CoreAudio API(即 AudioDeviceAddIOProc , AudioDeviceStart 等-不是AudioUnits
..
我正在尝试将录制的音频(从 AVAudioEngine inputNode )同步到在录制过程中正在播放的音频文件.结果应类似于多轨录音,其中每个后续新轨道都与录制时正在播放的先前轨道同步. 由于 sampleTime 在 AVAudioEngine 的输出和输入节点之间有所不同,因此我使用 hostTime 来确定原始音频和音频的偏移量.输入缓冲区. 在iOS上,我假设我必须使用 A
..
我身上有两条音轨,它们像这样相互组合: AVMutableComposition * composition = [[[AVMutableComposition alloc] init];AVMutableCompositionTrack * compositionAudioTrack = [composition addMutableTrackWithMediaType:AVMediaTyp
..
我正在编写自己的API,以执行SndVol系统实用程序的某些功能.我希望此API的一部分能够设置给定音频会话. SndVol在“设备"面板上显示一个滑块,用户可以使用它来更改音频设备的主音量级别,以及每个音频会话的滑块(在“应用程序"面板上),以更改音量级别会话的时间: 如果我拖动一个音频会话的滑块手柄,则SndVol能够更改音频会话的音量.它是怎么做到的? 我认为可以使用Win
..
上下文 我正在使用AVAudioEngine编写信号解释器,它将分析麦克风输入.在开发过程中,我想使用默认的输入缓冲区,这样就不必让麦克风发出噪音来测试我的更改.我正在使用Catalyst进行开发. 问题 我正在使用 AVAudioSinkNode 来获取声音缓冲区(据称性能更好)而不是使用 .installTap ).我正在使用 AVAudioSourceNode 的子类来生成
..
我已经成功编写了一个使用AVAudioRecorder的iOS简单录音应用程序.到目前为止,如果已将其插入耳机插孔,则可与内部麦克风或外部麦克风一起使用.如何选择通过USB“闪电端口"连接的音频源?我必须深入研究Core Audio吗? 具体地说,我正在尝试连接Apogee Electronics ONE USB音频接口. 解决方案 使用AVAudioSession,获取availa
..