core-audio相关内容
有人可以指出我是Matt Gallagher的Tone Generator的工作版本吗? http://www.cocoawithlove.com/assets/objc-era/ToneGenerator.zip 正如Matt所说,它尚未更新,显然已被较新的API破坏.我更新了我可以确定需要更新的内容,现在它仅使用弃用警告进行编译和运行,但所做的只是在触摸“播放"和“停止"按钮时发出
..
我正在尝试将从音频单元获得的AudioBufferList转换为CMSampleBuffer,然后可以将其传递到AVAssetWriter,以保存来自麦克风的音频.这种转换有效,因为我进行转换的调用不会失败,但是记录最终不会失败,而且我在日志中看到一些值得关注的输出. 我正在使用的代码如下: - (void)handleAudioSamples:(AudioBufferList*)sa
..
我发现了此答案,建议使用 private function getmute() as boolean Dim devenum As New MMDeviceEnumerator Dim device As MMDevice = devenum.GetDefaultAudioEndpoint(EDataFlow.eRender, ERole.eMultimedia) If device.AudioE
..
我正在尝试用C语言编写一个简单的基于单AU播放的,(几乎)无延迟的 tracking phase vocoder 原型.它是一个独立程序.我想找到一个渲染回调可以安全承受的处理负载,因此我宁愿不要使用异步DSP. 我的概念是仅使用一个预定值,即 窗口步长 或 跳跃大小 或 抽取因子 (在不同文献来源中使用的同一术语的不同名称).此数字将等于inNumberFrames,这在某种程度上取决于
..
假设代码是: ... status = AudioUnitSetProperty( unit, kAudioUnitProperty_StreamFormat, kAudioUnitScope_Input, element, &format, sizeof(AudioStreamBasicDescription)); ... status = Audi
..
在OS X中,有没有人碰到过拦截(和修改)音频的方法?我意识到我可以构建一个驱动程序并更改音频设置以在那里输出,但是我想做的是使用现有的音频输出并在流到达所选设备之前对其进行操作,而无需驱动程序重定向技巧.我还想做相反的事情,并在麦克风流到达管道的其余部分之前挂上它. 这有可能吗? 解决方案 CoreAudio“驱动程序"有两种,内核级和用户空间.从您的问题出发,目前尚不清楚是要避免
..
在Apple的用于创建AUAudio单元的文档中(此处: https://developer .apple.com/documentation/audiotoolbox/auaudiounit/1387570-initwithcomponentdescription ) 他们声称 单个音频单元子类可以实现多个音频单元,例如,也可以用作生成器的效果或相关效果的集群. 我找不到此在线示例.
..
我正在尝试从从Macbook(内置麦克风)的默认输入设备获得的声音输入中创建一个wav文件.但是,当作为原始数据导入到audacity时,结果文件是完全垃圾. 首先,我初始化音频文件引用,以便以后可以在音频单元输入回调中对其进行写入. // struct contains audiofileID as member MyAUGraphPlayer player = {0};
..
我无法将调音台插入AUGraph,否则在Mac OS和iOS上都可以正常工作. 我的工作图如下: (My Audio render callback)
..
这很简单(我认为).我只是想在用户更改系统偏好设置-声音中的默认声音输入或声音输出设备时在我的应用程序中获得通知.但是,如果能够从Apple文档中进行挖掘,我会很惊讶. 请注意,这是用于OSX,而不是IOS. 谢谢大家! 解决方案 为默认输出设备设置AudioObjectPropertyAddress: AudioObjectPropertyAddress outpu
..
我有一个可以在OSX下更改音量的应用程序.它缺少的是当人们按下声音上/下键时提供的视觉反馈.有谁知道如何以编程方式调用该行为? 谢谢 解决方案 以下是George Warner和Casey Fleser编写的一些代码,可以完成此操作.仔细考虑,这确实是您想要做事的方式. // Save as sound_up.m // Compile: gcc -o sound_up sound_u
..
这是上一个问题的后续内容: OSX CoreAudio:提前获取inNumberFrames-在初始化时可以吗? 我试图弄清楚什么是AudioUnit API,可以为输入回调设置 inNumberFrames 或首选IO缓冲区持续时间 OSX 中的一个 HAL 音频组件实例(不是插件!). 虽然我了解到有关如何在iOS中实现此功能的全面文档,但借助于 AVAudioSession API,我
..
我对从麦克风获取的音频进行下采样时遇到问题.我正在使用AVAudioEngine通过以下代码从麦克风中采样: assert(self.engine.inputNode != nil) let input = self.engine.inputNode! let audioFormat = AVAudioFormat(commonFormat: .pcmFormatFloat32, samp
..
我在PortAudio中生成特定频率时遇到麻烦,每当我尝试更改sin(n * FREQ * 2 * PI / SAMPLE_RATE)内部的频率时,频率都保持不变,但是声音似乎确实发生了音色变化,我输入的频率值越高声音较难看,但频率相同.这是我在patestCallback循环中所拥有的: static int patestCallback( const void *inputBuffer,
..
我正在尝试使用AudioToolbox的打开文件效果很好,但是,我需要访问肯定必须有一种方法可以执行此操作,而无需自己解析文件. PS:我已经可以使用libsndfile来做到这一点,但是我想找到一种仅使用OSX附带的组件来做到这一点的方法. 我已经尝试在ExtAudioFilePropertyID设置为'uuid'的情况下调用ExtAudioFileGetProperty(),但这似
..
我正在尝试使用AVMutableComposition在精确的时间播放一系列声音文件. 在加载视图时,我创建的合成是要播放1秒内均匀分布的4种声音.声音的时间长短无关紧要,我只想在0、0.25、0.5和0.75秒时发射它们: AVMutableComposition *composition = [[AVMutableComposition alloc] init]; NSDictio
..
我正在从audioUnit的IOS中记录音频,用opus编码字节,然后通过UDP将其发送到android端. 问题是声音在播放中被剪切.我还通过将原始数据从IOS发送到Android来测试声音,并且播放效果完美. 我的AudioSession代码是 try audioSession.setCategory(.playAndRecord, mode: .voiceChat,
..
我尝试使用AVPlayer播放MediaItem,然后尝试获取当前项目的持续时间,如下所示(持续时间是CMTime类型的对象): duration = [[player currentItem] duration]; 我在iPad上没有任何问题,但在iPod Touch中,出现以下错误.我还没有在iPhone中尝试过. 由于未捕获的异常而终止应用程序 'NSInvalidArgum
..
情况有点像这样: 我正在编程Xcode,同时在我的蓝牙耳机上听音乐……您知道要封锁世界. 然后,我去iOS模拟器中启动我的应用程序,BOOM突然间我的水晶般清晰的音乐变得乱七八糟,质量超低,就像在2个街区之外的浴缸中播放……在1940年代. . 注意:如果我在笔记本电脑或电影院的显示器上播放音乐并启动SIM卡,则不会导致质量下降.它似乎完全是Sim-> Bluetooth问题.
..
我目前正在使用iPhone上的音频处理应用程序.它基于Apple的SpeakHere示例代码,旨在进行实时音频处理和播放.该代码可在模拟器中正常运行,但在设备上进行测试时无法回调. 回调函数如下: void AQPlayer::AQBufferCallback(void * inUserData,
..