core-audio相关内容
在Windows 7中,如果一个人在任务栏的扬声器图标右侧点击,点击播放设备,将打开设备选项卡中的一个属性,然后单击增强选项卡上,一个得到一个过滤器列表(“低音增强”等),可以应用到声音设备。我怎么可以在这里注册自己的自定义过滤器? 请注意,我不是一个IHV - 涉及未签名驱动程序等黑客可怕的是可以接受的,因为这将是主要是我自己用的。 解决方案 如果你是一个音频IHV你与你的INF登记。
..
我添加了以下code。在话筒/线路年底在音频渲染回调。 但应用程序保持与EXC_BAD_ACCESS崩溃上: ERR = ExtAudioFileWriteAsync(mOutputAudioFile,inNumberFrames,ioData); 在code的其余部分如下: ExtAudioFileRef mOutputAudioFile; AudioFileID mAfid;
..
有一个库函数正常化声音文件?我已经搜索周围,但找不到任何。 我希望能够正常化声音文件和设置的成声音文件,因此只需要进行一次,而不是在飞行。 这能与核心音频做了什么? 解决方案 是的,这是可以做到的,但不是一个函数调用。 您想要的功能其实也不是CoreAudio的,而是
..
我想打从互联网加载的声音文件,所以我试图从iPhone SDK SpeakHere样品开始。我录了音,然后保存并上传到互联网,我可以下载该文件,并从声音工具没有问题玩。但是,当我试图播放从SpeakHere该URL,我得到错误程序接收到的信号:“EXC_BAD_ACCESS” 跟踪左右后,我发现,在 - [AudioPlayer calculateSizesFor:] ,其设置 bufferBy
..
我使用iPhone上的OpenAL可以同时播放多个音频样本。 我可以当单个样品做打的OpenAL来通知我? 我想避免硬编码的样品长度和设定一个计时器。 解决方案 如果您有抽象成一个类的OpenAL源,我想你可以简单地调用 performSelector:afterDelay:当您启动声音: - (无效)打 { [代表performSelector:@selector(so
..
我使用AVAudioPlayer,我想重置一个球员,如果它当前正在播放,并让它再次发挥有一个问题。 我尝试没有运气以下内容: 声音播放一次但第二次我选择它停止声音按钮,第三次再次启动的声音响了起来。 //停止播放器并重新启动 如果(player.playing){ 的NSLog(@“复位声:%@”,selectedSound); [播放器停止] [播放器播放]; }
..
我试图分析在iOS平台上的频率检测算法。所以,我发现使用几种实现FFT和CoreAudio的(例如1 和例如2 )。但是,在这两种情况下出现的频率一些IM precision存在: (1)对于A4(440Hz的)显示441.430664赫兹。 (1)为C 6 -C(1046.5赫兹)表示1518.09082赫兹。 (2)对于A4(440Hz的)显示了440.72赫兹。 (2)为C 6
..
是否有可能在J2ME测量由JSR-135播放器制作录音的信号幅度? 我知道我可以访问缓冲区,但然后呢? 目标模型粗体9000,支持的格式PCM和AMR。哪种格式,我应该使用? 另请参阅 黑莓录音采样code
..
我已经实现使用基于时间值一个基本低通滤波器。这是好的,但试图找到正确的时间片是猜测,并给出了基于不同的输入音频文件不同的结果。以下是我现在有: - (无效)processDataWithInBuffer:(常量int16_t *)缓冲outBuffer:(int16_t *)outBuffer sampleCount:(INT){LEN BOOL阳性; 的for(int i
..
(目标C) 只需使用简单的AudioServicesPlaySystemSoundID和它的同行,但我不能在文档中找到,如果已经有找到一个音频文件长度的方法。 我知道有AudioServicesGetPropertyInfo,但似乎返回一个字节的缓冲区? - 做音频文件中嵌入它们的长度对自己和我可以使用此提取它 还是有可能根据比特率*档案大小公式转换为长度的时间? mIL3S www.m
..
我编程产生音频。我听到我的缓冲区之间的沉默差距。当我勾我的电话一个范围,我看到每个缓冲区的前几个样品丢失,并在他们的地方是沉默。这种沉默的长度几乎没什么可高达20毫秒变化。 我首先想到的是我原来的回调函数需要太多的时间。我用最短的一个可能取代它 - 它遍地重新renqueues相同的缓冲区。我观察到相同的行为。 AudioQueueRef水溶液; AudioQueueBufferRef aq
..
我有关于说我工作的一个声音合成应用程序的问题。我试图在音频文件读取,创建随机'杂粮'使用颗粒合成技术的,地点他们到一个输出缓冲,然后才能发挥这一回使用OpenAL的用户。出于测试目的,我只是写输出缓冲到一个文件,我可以再听听回。 看我的成绩,我在正确的轨道上,但我得到一些锯齿问题,并播放声音,只是似乎不太对劲。通常有在输出文件以及调整音量中间的相当响亮的流行是非常响亮的时间。 下面是我已经得到
..
我已经加入了iPhone的笃声音我自己的自定义键盘是这样的: 的NSString *路径= [[一个NSBundle bundleWithIdentifier:@“com.apple.UIKit”] pathForResource:@“笃”ofType:@“AIFF”]; SystemSoundID soundID; AudioServicesCreateSystemSoundID((CFU
..
我在看苹果的“aurioTouch”为iPhone的例子,我想发挥MP3或WAV,而不是使用内置的麦克风。我是很新的iPhone编程的音频部分,但我想我需要修改SETU premoteIO(...)和替换功能命名为“补偿”与扮演一个文件的自定义AudioComponent的AudioComponent。基本上我想该应用功能完全相同的原,但是与音频文件作为输入来代替麦克风。 解决方案 您只需
..
什么是实现这一目标的最佳方式? 这是我到目前为止阅读,看来你必须设置远程IO(这是一种痛苦本身)。你需要做的FFT?是否有任何的例子在那里? 我可以只加速/减速回放? 感谢 解决方案 的OpenAL可以让你变调与AL_PITCH源属性。也许你可以通过运行的OpenAL音频和使用。
..
有没有办法转换我的记录.caf文件使用为.mp3 iPhone SDK /核心音频,别的东西? 我一直在寻找了一段时间,但我已经找到了一个命令行uitility(其中 不允许在iPhone上运行)。 问候 解决方案 由于iPhone实在不应该被用于处理器密集型的东西,如音响改装,你有没有想过这些文件传送到您的计算机并运行转换有使用你所提到的命令行工具?我敢肯定,你可以自动化很容易p
..
这是捕获来自音频最简单的方式内置的音频输入和请求时,例如从插座读取。能够既来在读取原始采样值(如在一个.wav)实时 这是使用苹果的框架(音频队列)中的一个希望code。文档也不是很清楚,我需要的是非常基本的。 解决方案 尝试AudioQueue框架这一点。你主要是必须执行的3个步骤: 设置的音频格式如何采样输入的模拟音频 开始AudioQueueNewInput一个新的记录Au
..
我正在寻找一种方式来改变录制音频的音调,因为它保存到磁盘,或播放(实时)。我明白了音频单元,可以用于此目的。 iPhone提供了音频单元有限的支持(例如它无法创建/使用自定义音频单元,据我可以告诉),但一些外的开箱音频单元可供选择,其中之一是AUPitch。 我究竟是如何使用音频单元(特别是AUPitch)?你把它挂到音频队列不知何故?是有可能链音频单元一起(例如,同时添加的回声效应和间距的变化
..
在文档我看到几个音频框架。大家似乎在演奏和录制音频进行有针对性的。所以我想最大的不同是它们之间是什么? 音频工具箱,音频单元,AV Foundation和核心音频。或者,我错过了一个指南,让所有这些很好的概述? 解决方案 检查出这个指南,给出了什么是什么了很好的概述的“使用音频”部分:
..
当你看与的MPMoviePlayerController 视频和用户presses顶部的按钮来锁定屏幕,应用程序进入睡眠状态也是如此的声音从视频。 有什么办法prevent从停止的声音锁?如果没有,有没有办法拦截锁,创建一个“自定义锁”,以节省电池,但保持播放视频? 解决方案 听起来像是你有没有
..