core-video相关内容

iPhone:实时视频颜色信息,焦距,光圈?

是否可以使用AVFoundation和CoreVideo实时获取颜色信息,光圈和焦距值? 让我解释一下.假设我在拍摄视频时想在屏幕的一小部分采样颜色并将其以RGB值输出到屏幕吗?另外,我想展示一下当前的光圈设置为什么. 有人知道是否有可能收集这些值?目前,我只看到静止图像可以做到这一点. 想法? 解决方案 AVCaptureStillImageOutput将为您提供视频流 ..
发布时间:2020-09-15 04:24:10 移动开发

录制视频时将动态文本呈现到CVPixelBufferRef上

我正在使用AVCaptureVideoDataOutput和AVCaptureAudioDataOutput录制视频和音频,并且在captureOutput:didOutputSampleBuffer:fromConnection:委托方法中,我想在从视频连接接收的每个单独的样本缓冲区上绘制文本.文本每隔一帧都会变化(这是一个秒表标签),我希望将其记录在所捕获的视频数据之上. 这是到目前为止 ..
发布时间:2020-09-15 03:45:22 移动开发

在YUV中绘制CGImageRef

我在这里使用代码在OS X上将CGImageRef转换为CVPixelBufferRef. 将UIImage转换为CVImageBufferRef 但是,我需要在YUV (kCVPixelFormatType_420YpCbCr8Planar)中而不是现在的RBG中绘制图像. 无论如何,是否可以在YUV色彩空间中直接绘制CGImage?如果不是,是否有人能提供将CVPixedBu ..
发布时间:2020-08-12 01:07:11 其他开发

如何选择与AVAssetReader一起使用的像素格式类型(kCVPixelBufferPixelFormatTypeKey)?

我们正在以视频编码中所述的样式使用AVAssetReader和AVAssetWriter使用AVAssetWriter-CRASHES 基本上是从相册/资产库中读取视频,然后以不同的比特率写入以减小其大小(最终用于网络上传). 让它起作用的诀窍是在AVAssetReaderTrackOutput的outputSettings中指定kCVPixelBufferPixelFormatTypeKe ..
发布时间:2020-07-18 19:10:27 移动开发

iOS应用程序的快速屏幕录制

我是OpenGL ES的新手. 我正在尝试编写代码来录制iOS应用程序(尤其是游戏)的屏幕. 我正在使用此答案中的代码描述的“渲染到纹理"方法来捕获屏幕并编写cocos2d游戏的视频. 我所做的一个修改是,当我调用CVOpenGLESTextureCacheCreate时,我正在使用 [EAGLContext currentContext] 代替 [[GPUImageOpenGLESC ..
发布时间:2020-05-21 00:40:28 移动开发

将RGB像素数据高性能复制到iOS中的屏幕

我们的产品包含一种软件图像解码器,该解码器本质上会产生需要快速复制到屏幕上的全帧像素数据(我们在iOS上运行). 当前,我们正在使用CGBitmapContextCreate,我们直接访问内存缓冲区,然后对于每个帧,我们调用CGBitmapContextCreateImage,然后将该位图绘制到屏幕上.对于以适当的帧速率在iPad的视网膜显示屏上进行全屏刷新来说,这太慢了(但是对于非Reti ..
发布时间:2020-05-21 00:29:42 移动开发

CoreImage/CoreVideo中的内存泄漏

我正在构建一个执行一些基本检测的iOS应用. 我从AVCaptureVideoDataOutput获取原始帧,将CMSampleBufferRef转换为UIImage,调整UIImage的大小,然后将其转换为CVPixelBufferRef. 据我所能检测到的仪器泄漏是将CGImage转换为CVPixelBufferRef的最后一部分. 这是我使用的代码: - (void)captur ..
发布时间:2020-05-08 21:00:33 移动开发

过滤实时相机送纸

所以我一直在使用UIImagepickercontroller访问相机进行照片和视频捕捉,然后我想在这两个来源上应用过滤器,我成功地过滤了令牌照片,但我找不到其余的解决方案,我只需要访问原始图像数据:相机显示的实时图像输入,应用过滤器,然后显示过滤的图像。任何帮助或建议将不胜感激。 解决方案 UIImagePickerController不会为您提供对相机缓冲区的低级访问。 你应该设 ..
发布时间:2018-09-23 19:12:06 IPhone

克隆CVPixelBuffer - 怎么样?

假设我有一些与变量关联的像素缓冲区: CVPixelBufferRef a; 我想 clone 缓冲区包含所有内容,并将克隆的一个分配给另一个变量。 最正确,最快速的方法是什么? 解决方案 到目前为止,我找不到更好的解决方案比memcpy()。希望它能复制所有需要的数据。 ..
发布时间:2018-09-23 19:11:49 移动开发

使用OpenGL ES纹理缓存而不是glReadPixels来获取纹理数据

在iOS 5中,引入了OpenGL ES Texture缓存,提供了从摄像机视频数据到OpenGL的直接方式,无需复制缓冲区。在会话414 - iOS 5的OpenGL ES的进展中简要介绍了纹理缓存WWDC 2011 。 我发现了一个有趣的文章最后进一步滥用这个概念并绕过对 glReadPixels 只需锁定纹理,然后直接访问缓冲区。 glReadPixels 真的很慢到期到iPad ..
发布时间:2018-09-21 20:01:29 移动开发

知道AVCaptureSession的会话预设的解决方案

我正在iOS中访问相机并使用会话预设: captureSession.sessionPreset = AVCaptureSessionPresetMedium; 相当标准的东西。但是,我想提前知道由于这个预设而我将获得的视频分辨率(特别是因为取决于设备它会有所不同)。我知道有在线表格可以查看(例如: http://cmgresearch.blogspot.com/2010 ..
发布时间:2018-09-18 16:35:08 移动开发

在iOS下逐帧阅读视频

我正在寻找一种使用iOS API检索视频的各个帧的方法。 我尝试使用AVAssetImageGenerator,但它似乎只提供了最接近的秒的帧,这对于我的使用来说有点过于粗糙。 据我所知文档,AVAssetReader,AVAssetReaderOutput和CMSampleBufferGetImageBuffer的管道我应该可以做一些事情,但我坚持使用CVImageBufferRef。有 ..
发布时间:2018-09-18 15:52:06 移动开发

从CVImageBuffer保持MTLTexture会导致口吃

我正在使用 CVImageBuffer (来自相机和玩家)创建 MTLTexture > CVMetalTextureCacheCreateTextureFromImage 获取 CVMetalTexture 然后 CVMetalTextureGetTexture 获取 MTLTexture 。 我看到的问题是,当我稍后使用Metal渲染纹理时,我偶尔会看到渲染出的视频帧可能因为CoreVi ..
发布时间:2018-09-17 09:06:27 移动开发