avfoundation相关内容

iPhone装饰音频录音

我的应用程序中有一个语音备忘录组件,我想允许用户修剪音频,类似于QuickTime X在Mac OS十点六处理它,或像iPhone上的语音备忘录应用程序。这里有两个例子: 任何帮助是赞赏。 解决方案 我不是一个UI程序员。这是我写的一个测试,看看如何编写自定义控件。此代码可能会或可能不工作。 @ interface SUIMaxSlider:UIControl { @p ..

重新打开AVCaptureSession

我有一个应用程序,需要一些图片。 我的整个应用程序基于来自WWDC 2010的 AVCam 示例代码。 我搞错了很多,直到现在我不知道如何正确释放相机视图,释放相机会话... 我想要做的是以下内容: 打开相机视图控制器 拍摄一些照片 关闭相机视图控制器 再次打开 第二次我推viewController会话丢失,预览不可用,捕获也不可用。我已在github上发布完整示例代 ..
发布时间:2016-12-09 19:11:58 移动开发

如何检查在iOS中的分辨率,视频的比特率

我正在开发一个功能上的视频压缩;我的想法如下: 获取视频的分辨率和位元率。 视频。如果它大640x480,我会把这个视频压缩一半,并在1/4调整比特率。例如,如果视频分辨率为1920x1080,则其将被压缩为960x540,并且以4mbps的1920x1080将以1mbps压缩为960x540。 我有几个问题: 如何在iOS中获得解析度和视频比特率? 如果压缩1920x108 ..
发布时间:2016-12-09 18:57:45 移动开发

在AVMutableVideoComposition中交叉淡入淡出

我已经成功地组合了一个具有多个视频剪辑的AVMutableComposition,并且可以查看它并导出它,我想要使用交叉淡入淡出在他们之间转换,所以我想使用AVMutableVideoComposition。我找不到任何例子,如何甚至安排和播放一对夫妇AVAsset视频连续。有没有人有一个例子,如何添加轨道到AVMutableVideoComposition等效的AVMutableComposit ..
发布时间:2016-12-09 18:04:19 移动开发

如何将来自iPhone相机的实时视频馈送转换为灰度?

我如何从iPhone相机拍摄现场画面,将它们转换为灰度,然后在我的应用程序中将其显示在屏幕上? 解决方案 要扩展汤米说,你会想使用AVFoundation在iOS 4.0中捕获实时相机帧。然而,我建议直接使用OpenGL来做图像处理,因为你不能在当前硬件上实现实时结果。 对于OpenGL ES 1.1设备,我将看看使用Apple的 GLImageProcessing 示例应用程序作为 ..
发布时间:2016-12-09 03:17:21 移动开发

如何控制使用AVMutableComposition组装的视频的方向

我在纵向模式下组装了一堆在iPhone上拍摄的视频剪辑。为了组装它们,我采取以下直接的方法: AVURLAsset以获取不同的视频,然后将这些放入AVMutableCompositionTrack,然后将其放入AVMutableComposition, m导出到文件与AVAssetExportSession 我的问题是,当我来显示视频在UIWebView,它是以横向模式出现。但是,如果 ..
发布时间:2016-12-09 02:59:47 移动开发

ios无尽的录像

我想开发一个iPhone应用程序,使用相机只记录最后几分钟/秒。 例如,您录制一段电影5分钟,单击“保存”,只有最后30秒将被保存。我不想实际记录五分钟,然后剁最后30秒(这不会为我工作)。这个想法名为“循环录制”。 此结果在一个无尽的录像,但你记得只有最后一部分。 Precorder应用程序做我想做的。 (我想在其他上下文中使用此功能) 我认为这应该很容易模拟与循环缓冲区。 我开始 ..
发布时间:2016-12-09 02:46:02 移动开发

通过HTTP直播流从MP3提取ID3标签

我从一个困难的时间提取ID3信息从通过Live HTTP Streaming流式传输的MP3(使用Wowza媒体服务器,如果有人好奇)。我知道标签(现在的相册标签和专辑的艺术品标签)正在适当地嵌入每个文件段,因为当我手动下载它们可以看到他们在每个段中列出的 .m3u 由服务器生成的索引文件。 我使用 AVFoundation 这样,我就这样设置: - (void)initializ ..
发布时间:2016-12-09 00:03:08 移动开发

AVCaptureVideoPreviewLayer:拍摄快照

我试图模拟默认相机应用程序中显示的动画,其中相机取景器的快照将动画到应用程序显示的角落。 保存解决这个问题的关键的AVCaptureVideoPreviewLayer对象不是非常开放这些要求:试图创建一个新的层的副本与.. - (id)initWithLayer:(id)layer 一个空的图层,没有图像快照,所以显然有一些更深的魔法在这里。 你的线索/ ..
发布时间:2016-12-08 22:11:01 移动开发

通过AVAssetReader读取样本

如何通过AVAssetReader阅读示例?我发现使用AVAssetReader复制或混合的示例,但这些循环总是由AVAssetWriter循环控制。是否可以创建一个AVAssetReader并读取它,获取每个样本? 谢谢。 解决方案 从你的问题不清楚你是在谈论视频样本或音频样本。要阅读视频示例,您需要执行以下操作: 构建AVAssetReader: asset_read ..
发布时间:2016-12-08 15:23:17 移动开发

通过AVAssetReader读取音频样本

如何通过AVAssetReader阅读音频样本?我发现使用AVAssetReader复制或混合的示例,但这些循环总是由AVAssetWriter循环控制。是否可以创建一个AVAssetReader并读取它,获取每个样本并将每个音频样本的int32放入数组? 谢谢。要扩展@ amrox的答案,你可以从CMBlockBufferRef中获取一个AudioBufferList,例如 pre> ..
发布时间:2016-12-08 14:59:37 移动开发

使用Swift在OS X上将Core Image Filter应用于视频

我计划使用SWIFT为OS X应用程序构建一个NSOpenGLView,可用于将Core Image Filter和效果应用到视频,到目前为止,我已经研究了视频控制器的代码以添加视频播放,但是我不知道如何将过滤器应用到视频: 类VideoMediaViewController:NSViewController { 弱var mainView:DTMainViewController? ..
发布时间:2016-12-08 01:04:00 移动开发

如何将NSData对象与JPEG数据转换为CVPixelBufferRef在OS X?

正如标题所提到的。 我用Google和Stackoverflow搜索,所有资源都用于UIImage转换,或者将NSImage从CVPixelBufferRef转换。现在我想做的是将JPEG原始数据转换为CVPixelBufferRef,以便我可以生成一个带有现场jpeg流的电影文件。 解决方案 您可以使用以下方法将 NSImage 转换为 CVPixelBufferRef : ..
发布时间:2016-12-07 04:28:26 其它移动开发

在Mac OS X 10.7 Lion上使用核心动画的AVFoundation问题

在Mac OS X 10.7苹果已经推出了AVFoundation,我试图生成一个简单的快速时间电影包含一个动画形状。问题是核心动画不渲染,我最终只有一个空白的“黑色”视频。下面是我使用的代码。我尝试了许多变化,但没有一个工作。导出状态始终为“已完成”。 奇怪的是,UI视图包含另一个层设置,方法相同,但添加到AVSynchronizedLayer, //注意:composition是 ..
发布时间:2016-12-07 03:35:54 移动开发

合成2个视频在彼此顶部与alpha

AVFoundation可让您将2个资产(2部影片)「合成」为2个「曲目」,例如Final Cut Pro。 这个理论说,我可以有两个视频的顶部,用alpha,看到两个。 我做错了,或者在某处有一个错误,因为下面的测试代码虽然有些凌乱,但我清楚地说明我应该看到2个视频,只能看到一个,如下所示: http://lockerz.com/s/172403384 - “蓝色“方块是IMG_13 ..