avcapturesession相关内容
嗨,我想设置AV捕获会话,以使用iPhone相机捕获具有特定分辨率(并且,如果可能,具有特定质量)的图像.这是在设置AV会话代码 // Create and configure a capture session and start it running - (void)setupCaptureSession { NSError *error = nil; // Crea
..
我必须实现在单个会话中重复暂停和恢复视频捕获的功能,但是将每个新段(每次暂停后捕获的段)添加到同一视频文件中,并使用 AVFoundation 。目前,每当我再次按“停止”然后再“记录”时,它只会将新的视频文件保存到我的iPhone的文档目录中,并开始捕获到新文件。我需要能够按下“录制/停止”按钮,只捕获视频和播放器。当记录处于活动状态时的音频...然后当按下“完成”按钮时,将一个包含所有段的AV
..
我使用以下代码聚焦iphone相机。但它没有用。我从Apple的AVCam示例代码中获取此代码。我做错了吗?有没有任何方法可以检测 是否确实关注了iPhone? - (void)focusAtPoint:(CGPoint)point { AVCaptureDevice * device = [AVCaptureDevice defaultDeviceWithMediaType:A
..
我让我的AVCaptureSession工作,它几乎完美地复制了Camera.app用户界面,然而,几秒钟后应用程序将崩溃,我只是找不到我做错了什么。我真的希望有人知道如何优化这个! 我 AM 使用ARC;而且,整个会话运行良好,但稍微崩溃了。 AVCaptureSession委托方法被调用似乎每秒钟。如果只有当用户按下“拍照”按钮时才有办法调用该方法,那么如何在保持“实时”预览图层的同时执
..
我需要从内存中的captureSession中保存一些视频帧,并在“某事”发生时将它们写入文件。 类似于此解决方案,我使用此代码将框架放入NSMutableArray: - (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer(CMSampleBufferRef)sampleBuffer
..
我对此感到疯狂 - 到处寻找并尝试了我能想到的任何事情。 制作使用AVFoundation的iPhone应用程序 - 特别是AVCapture使用iPhone相机拍摄视频。 我需要在录制中包含的视频源上叠加自定义图像。 到目前为止,我已经设置了AVCapture会话,可以显示Feed,访问框架,将其保存为UIImage并将叠加图像放在上面。然后将这个新的UIImage转换为CVP
..
我可以根据使用AVCaptureSession从相机捕捉视频帧http://developer.apple.com/iphone/library/qa/qa2010/qa1702.html 。但是,似乎AVCaptureScreen从相机捕获帧而不在屏幕上显示相机流。我想像UIImagePicker一样显示相机流,以便用户知道相机正在打开并看到相机指向的位置。任何帮助或指针将不胜感激! 解决
..
当我创建第二个AVCaptureSession时,自动对焦无法在第一个AVCaptureSession上运行。要创建的第二个会话是自动对焦的工作,第一个创建的会话不会自动对焦。 我希望任何一个会话都可以在启动时自动对焦在另一个停止后,两个会话的自动白平衡和自动曝光工作相同。如果您使用下面的示例代码观察日志窗口,您可以看到通过的键值观察消息;但是当顶级会话正在运行时,永远不会改变焦点消息。
..
我的目标是编写一个自定义相机视图控制器: 可以同时拍摄所有四个界面方向的照片,如果可用的话,前置摄像头。 正确旋转并缩放预览“视频”以及全分辨率照片。 允许(简单) )效果将同时应用于预览“视频”和全分辨率照片。 实施(在iOS 4.2 / Xcode 3.2.5上) ): 由于要求(3),我需要下降到AVFoundation。 我开始时技术Q& A QA1702 并进
..
这主要与增强现实类型应用相关。 Apple提供了有关如何使用AVCaptureSession捕获视频帧(并在需要时将其保存为图像)的信息: http://developer.apple.com/library/ios/#qa/qa2010/qa1702.html 我知道可以在捕获的视频帧中创建一个openGL纹理,然后在openGL视图中将其用作覆盖其他图形的背景。 我想知道这种
..
我正在开发一款操作高清照片的应用。我正在用AVCaptureSession拍照,停下来然后在那张照片上应用效果。 让我疯狂的事情是一切正常,乐器告诉我我按时正确地释放了我使用的所有内存。它真的很高,有时达到100mb。但它很快就会崩溃。 然后我重启我的Capture Session并得到一个内存警告。绝对没有理由; _;我释放时使用的所有内存...然后下次我将重新启动捕获会话时应用程序
..
我正在学习AVCaptureSession以及如何使用其委托方法捕获多个图像 - (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)conne
..
是否有AVFoundation的基本教程可以在任何地方使用相机? UIImagePicker不适合我的应用程序,它看起来像是我不知道该怎么做。 我可以看看如何使用AVCaptureStillImageOutput拍照,但我看不到如何显示相机视图在屏幕上。 非常感谢任何帮助。 谢谢 Oliver 解决方案 如果您是注册的Apple开发人员,则会话409(在图形和
..
嘿那里,我正在尝试使用AVCaptureSession从iphone相机访问原始数据。我遵循Apple提供的指南(此处链接)。 来自samplebuffer的原始数据是YUV格式(我这里关于原始视频帧格式是正确的吗?),如何直接获取Y分量的数据存储在samplebuffer中的原始数据。 解决方案 设置返回原始相机帧的AVCaptureVideoDataOutput时,可以使用如下代
..
所以,我按照Apple的指示使用 AVCaptureSession 捕获视频会话: http://developer.apple.com/iphone/library/qa/qa2010/qa1702.html 。我面临的一个问题是,即使相机/ iPhone设备的方向是垂直的(并且 AVCaptureVideoPreviewLayer 显示垂直相机流),输出图像似乎是在横向模式中。我在示例代码的
..
我正在开发一个项目,我们将使用iPhone作为捕捉场景的相机。录制时我们需要录制@ 60fps而不是30fps(原生支持)。所以我正在开发一款应用程序来实现这一点,因为iPhone 4S硬件支持720p @ 60fps(如果你越狱你的手机你可以实现这一点)。 有谁知道如何在iOS上的Objective-C中执行此操作?今天我看到一个应用程序(slopro)可以在非越狱手机上录制60fps。非
..
使用设置 AVCaptureSessionPresetPhoto 找到要捕获的图像分辨率的最佳方法。 我想在捕获之前找到分辨率图片。 解决方案 使用下面的函数,您可以通过编程方式从 activeFormat 在捕获开始之前,但不是在添加输入和输出之前: https://developer.apple.com/library/ios/documentation/AVFoundatio
..
这个SO答案解决了如何进行 UIView 的屏幕截图。我们需要类似的东西,但不是单个图像,目标是在60秒内生成出现在 UIView 内的所有内容的视频 - 概念上就像仅记录层 UIView ,忽略其他图层。 我们的视频应用程序在用户录制的任何内容上叠加图层,并且最终目标是制作与原始视频合并这些图层的主视频。但是,使用 AVVideoCompositionCoreAnimationTool 将
..
我的应用程序目前正在使用AVFoundation从iPhone的后置摄像头获取原始摄像头数据并实时显示在AVCaptureVideoPreviewLayer上。 我的目标是有条件地将简单图像过滤器应用于预览图层。图像未保存,因此我无需捕获输出。例如,我想切换一个设置,将预览图层中的视频转换为Black&白色。 我发现了一个问题这里似乎通过捕获缓冲区中的各个视频帧,应用所需的转换,然后将
..
我在AVCaptureSession中,我需要知道正在捕获的帧的数量。 当捕获开始时,我将重置一个帧数计数器零。因此,第一帧的时间戳将为零。后续帧将具有这样的捕获时间戳,例如: 0 0.033 0.066 0.099 等 但这些不是确切的数字,因为帧数可以丢弃差异可能会发生。我需要知道捕获帧的确切时间。 我每次抓取一个帧时都会调用此方法...
..