avfoundation相关内容
我的应用程序中有以下代码: NSURL *url = [NSURL fileURLWithPath: [self.DocDir stringByAppendingPathComponent: self.FileName] isDirectory: NO]; self.avPlayer = [AVPlayer playerWithURL: url]; Float64 duration = C
..
我正在Swift中使用视频编辑应用。在我的例子中,我的输出视频如下 我正在尝试用模糊效果填充黑色部分,就像这样 我搜索了一下,但没有找到任何有效的解决方案。任何帮助都是极大的帮助。 推荐答案 SWIFT 4-向视频添加模糊背景 1.单视频支持❤️ 1.多视频合并支持❤️ 2.支持任意比例的画布❤️ 3.将最终视频保存到相机胶卷❤️ 5.管理所有视频方向❤️ 可
..
如何才能像“摄像头”一样实时进行人脸检测? 我注意到AVCaptureStillImageOutput在10.0之后已弃用,因此我使用 改为AVCapturePhotoOutput。但是,我发现我为面部检测保存的图像并不是那么令人满意?有什么想法吗? 更新 在尝试了@Shravya Boggarapu之后提到。目前,我使用AVCaptureMetadataOutput检测人脸,没
..
我要使用Core Image处理一组CGImage对象,并在MacOS上将它们转换为QuickTime电影。以下代码演示了所需的内容,但output contains a lot of blank (black) frames: import AppKit import AVFoundation import CoreGraphics import Foundation import Cor
..
早安, 我的应用是一个音乐播放应用.我用 Javascript 控制 -Tag.到目前为止没有问题,播放、暂停、下一个和上一个按钮都可以正常工作.当我在 iOS 5 中待机设备时,音乐继续播放,但自动下一首歌曲不起作用.当它不处于待机状态时,它可以工作.而在 iOS 6 中,只需按下按钮,音乐就会淡出. 锁屏上的播放/暂停按钮适用于 iOS 5,但不适用于 iOS 6.
..
我制作了一个具有捕捉和保存视频功能的应用.我为此使用了 AVFoundation,Apple 的 AVCam 一直是我的向导. 希望我能说清楚: 一切正常,直到我第一次发布处理 AVCamCaptureManager 的 videoViewController(在 AVCam 中,这将是 AVCamViewController).之后,当我再次创建它时,视频在相机切换后立即冻结.即使重新运
..
我正在借助 WWDC 2010 AVCamDemo 示例.在应用程序中,我需要从 iPhone 的前置摄像头录制视频,但由于我所在的地方没有新的 iPhone 4,我无法正确测试代码. 如果有人能提醒我我的方向是否正确,我将非常感激.当我设置 AVCaptureSession 时,我可以在 iPhone 3G(升级到 iOS 4.1)上测试的有限代码崩溃,如下面的代码所示: - (void
..
我想知道 AVFoundation 或任何其他框架中是否有任何公共 API 可用于像会说话的汤姆猫那样记录屏幕.我查看了 AVFoundation 和 CoreVideo 框架,但无法从头文件中找到任何内容. 如果有人知道如何使用 iPhone SDK 以实用的方式录制屏幕视频,请告诉我. 解决方案 你可以通过以下步骤来实现: 截屏 将该帧放入队列中 用 avassertw
..
AVCaptureVideoPreviewLayer *avLayer =[AVCaptureVideoPreviewLayer layerWithSession:session];avLayer.frame = self.view.frame;[self.view.layer addSublayer:avLayer]; 我使用 AVCaptureVideoPreviewLayer 在视图上显示
..
我正在尝试从 ipad 屏幕创建教程视频 在这个应用程序(ShowME)中完成使用 AVAssetWriter 我能够捕获屏幕视频. 我尝试使用 AVCaptureDevice,但它不起作用.我不知道出了什么问题.我从这个 链接学习了从 iPhone 屏幕捕捉视频 - 一个非常好的教程.但它不会捕获任何音频以及屏幕视频.所以我试了一下: -(void)setUpMike{NSError*
..
我知道您可以使用 AVFoundation 类(AVURLAsset、AVMutableComposition、AVMutableCompositionTrack 等)一个接一个地附加来合并多个剪辑并创建一个视频. 有像“Video-Joiner"这样的应用可以做到这一点. 我想做的是并列 2 个视频. 我的应用创意 - SelfInterviewer 请不要窃取 :) 首
..
我正在开发一个应用程序,我正在尝试使用 AVCaptureSession 类录制视频...我遇到了一些像这样的好教程 http://www.benjaminloulier.com/posts/2-ios4-and-direct-access-to-the-camera 但在这些教程中,只从视频帧中捕获图像,而我想录制一个完整长度的视频,我可以将其保存在我的设备中或将其上传到我的服务器.
..
据此 什么技术最适合将 iPhone 摄像机数据实时流式传输到计算机? 可以从 iphone 摄像机获取压缩数据,但正如我在 AVFoundation 参考中所读到的,您只能获得未压缩的数据.p> 所以问题是: 1) 如何从 iPhone 的相机中获取压缩帧和音频? 2) 使用 ffmpeg 的 API 编码未压缩的帧对于实时流式传输是否足够快? 任何帮助将不胜感激. 谢
..
我正在尝试将来自相机的视频与静态图像(水印)混合. 我检查了这里的问题/答案和一些示例,包括 Apple 的 WWDC AVEditDemo,并以以下代码结束.不幸的是,导出的视频不包含带有图像的图层.有什么想法吗? - (void)imagePickerController:(UIImagePickerController *)picker didFinishPickingMediaWi
..
我的代码中的didOutputSampleBuffer 函数没有被调用.我不知道为什么会这样.代码如下: 导入 UIKit导入 AVFoundation导入加速类视图控制器:UIViewController {var captureSession: AVCaptureSession?var dataOutput:AVCaptureVideoDataOutput?var customPreview
..
我有这段用于从 AVAssetReaderOutput 读取数据的代码片段,该方法在 iOS 4.0 中运行良好,但在 5.0 中它会因访问错误而崩溃,不知道为什么,任何人都有有什么意见吗? AVAssetReaderOutput *output=[myOutputs objectAtIndex:0];诠释总缓冲=0;而(真){CMSampleBufferRef ref=[输出copyNextS
..
我正在使用 AVFoundation 框架.在我的示例缓冲区委托中,我有以下代码: -(void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection{
..
我已经能够使用 AVFoundation 的 AVAssetReader 类将视频帧上传到 OpenGL ES 纹理中.但是,它有一个 警告与指向远程媒体的 AVURLAsset 一起使用时失败.这个失败没有很好的记录,我想知道是否有任何方法可以解决这个缺点. 解决方案 iOS 6 中发布了一些 API,我可以使用这些 API 让这个过程变得轻而易举.它根本不使用 AVAssetReade
..
如何修复使用前置摄像头镜像捕获的图像?SnapChat 似乎可以修复它以及 WhatsApp 和 Instagram ,我该怎么办?我真的很想为此找到解决方案...这很烦人...谢谢 我看到 总是看到从前置摄像头 iOS 5.0 捕获时镜像图像,但它会翻转后置摄像头和前置摄像头的图像,这并不能真正解决任何人的问题.如果有人能帮我弄清楚如何只翻转前置摄像头图像或任何其他很棒的解决方案! 导入
..
我正在尝试操纵触摸事件并手动调整焦点和曝光以适应用户按下的 CGPoint.我正在使用设备对象并使用 setFocusPointOfInterest 和 setExposurePointOfInterest 来进行操作.看起来焦点工作得很好,但是当我尝试将曝光模式设置为 AVCaptureExposureModeAutoExpose 时,它会崩溃,原因是:“此设备不支持设置曝光模式 (%d)."
..