yuv相关内容
我正在处理从YUV420到RGB的转换,但图像颜色不能产生良好的效果。最初我自己的文件是10位的。最初,我从8位文件开始。 我使用下面的代码读取YUV420图像并转换为RGB。因为我有YUV420.YUV图像文件,但该代码是用于视频的,因此,我只读取了1帧。然后我得到的YUV是全尺寸的Y,但U和V是维基百科上描述的一半大小。然后我将图像大小调整到图像的完整大小,并应用YUV到RGB的转换。但
..
我需要从管道或插座解码视频,然后转换它的图像集和绘制与Qt(4.8.5!!)。 我正在使用libAV的默认示例并添加我需要的内容。 以下是我的代码: AVCodec *codec; AVCodecContext *codecContext= NULL; int frameNumber, got_picture, len; FILE *f; AVF
..
我需要使用OpenGL着色器作为编码器输入将RGBA转换为NV12。 已经渲染了两个不同的碎片着色器,两个纹理都来自一个摄影机。使用V4L2获取相机图像(YUV)。然后,将YUV转换为RGB,让OpenGL渲染。下一步,我需要将RGB转换为NV12作为编码器输入,因为编码器只接受NV12格式。 推荐答案 使用计算着色器将rgb转换为平面yuv,然后对UV平面进行二倍的缩减采样。
..
在我的应用程序中,我们需要显示从服务器接收到的视频帧到我们的 android 应用程序, 服务器正在以每秒 50 帧的速度发送视频数据,已在 WebM 中编码,即使用 libvpx 对图像进行编码和解码, 现在从 libvpx 解码后,它得到 YUV 数据,我们可以显示在图像布局上, 目前的实现是这样的, 在 JNI/Native C++ 代码中,我们将 YUV 数据转换为 R
..
在表面的 PreviewCall 中,我们在相机预览中获得了 YUV420SP 格式,但是由于该图像的错误旋转,我想正确旋转 YUV 图像,因为我需要通过网络发送它.所以需要应用正确的旋转. 我发现这个链接可以正确旋转,但图像颜色变差了. http://www.wordsaretoys.com/2013/10/25/roll-that-camera-zombie-rotation-
..
我已经分别从视频帧中提取YUV数据并保存在data[0],data[1],data[2];帧大小为640*480;现在我创建 pixelBuffer 如下: void *pYUV[3] = {data[0], data[1], data[2]};size_t 平面宽度 = {640, 320, 320};size_t 平面高度 = {480, 240, 240};size_t planeByte
..
目前,我正在尝试使用 openGL 绘制图像(图像更新非常频繁,因此必须重新绘制).以前,我将我的图像从 YUV 转换为 RGB,然后使用这个新图像使用 openGL 进行绘制.一切正常,但转换过程并不是特别快. 我现在正在尝试更改代码,以便在 openGL 着色器中处理转换.环顾四周后,我发现了一些代码片段(特别是着色器和我的 renderImage 函数的大部分),它们帮助我获得了基线,
..
我正在尝试从相机预览中捕获图像并在其上绘图.问题是,我只有大约 3-4 fps 的绘图速度,一半的帧处理时间是从相机预览接收和解码 NV21 图像并转换为位图.我有一个代码来完成这个任务,我在另一个堆栈问题中找到了它.好像不快,但是不知道怎么优化.在三星 Note 3,图像尺寸 1920x1080 上大约需要 100-150 毫秒.我怎样才能让它运行得更快? 代码: public Bitm
..
我正在尝试使用此处提出的 camera2 api 实现相机预览图像数据处理:使用 Android L 和 Camera2 API 处理相机预览图像数据. 我使用 onImageAvailableListener 成功接收到回调,但为了以后的处理,我需要从 YUV_420_888 android.media.Image 获取位图.我搜索了类似的问题,但都没有帮助. 您能否建议我如何将 a
..
我正在尝试从相机的预览中获取字节 [],将其转换为位图并使用 imageView.setImageBitmap() 将其显示在图像视图上 我已经设法开始预览并将其显示在surfaceView上,但我不知道如何将字节[]数据(我认为是Yuv格式)转换为RGB位图以将其显示在图像视图. 我正在尝试的代码如下: camera = camera.open();参数 = camera.getP
..
嘿,我正在创建小型相机应用程序,我已经实现了所有功能,但有一个问题是将 NV21 字节数组转换为 jpeg 格式 我找到了很多方法,但它们甚至都不起作用或在某些设备上运行 首先我尝试了这个片段,它在 Xperia z2 5.2 上运行,但在 Galaxy s4 4.4.4 上运行 bitmap = BitmapFactory.decodeByteArray(data, 0, data.len
..
全部 有谁知道QOMX_COLOR_FormatYUV420PackedSemiPlanar64x32Tile2m8ka格式的详细信息,这是qcom 7x30 h/w解码器的输出格式,数据是如何以这种颜色格式存储的?谢谢 解决方案 这是我的研究,关于QOMX_COLOR_FormatYUV420PackedSemiPlanar64x32Tile2m8ka 转换为YUV420Plana
..
我想将 YUV420P 图像(从 H.264 流接收)转换为 RGB,同时使用 调整其大小sws_scale. 原图大小为480 × 800.只需使用相同尺寸进行转换即可. 但是当我尝试改变尺寸时,我得到一个扭曲的图像,具有以下模式: 更改为 481 × 800 会产生扭曲的黑白图像,看起来像是从中间切掉了 482 × 800 会更失真 483 × 800 失真但有颜色 484 ×
..
我有一个原始 YUV 视频文件,我想在 Adobe CS6 Premiere 中对其进行一些基本编辑,但它无法识别该文件.我想使用 ffmpeg 将其转换为 Premiere 可以接受的内容,但我希望这是无损的,因为之后我将再次需要它的 YUV 格式.我想到了 avi、mov 和 prores,但我似乎无法弄清楚 ffmpeg 的正确命令行以及如何确保它是无损的. 感谢您的帮助.
..
我想使用 C++ 代码从位图图像制作 .avi 视频文件.我写了以下代码: //从bmp文件中获取RGB数组数据uint8_t* rgb24Data = 新的 uint8_t[3*imgWidth*imgHeight];hBitmap = (HBITMAP) LoadImage( NULL, _T("myfile.bmp"), IMAGE_BITMAP, 0, 0, LR_LOADFROMFIL
..
在我的应用程序中,我们需要显示从服务器接收到的视频帧到我们的 android 应用程序, 服务器以每秒 50 帧的速度发送视频数据,已在 WebM 中编码,即使用 libvpx 对图像进行编码和解码, 现在从 libvpx 解码后得到 YUV 数据,我们可以在图像布局上显示, 目前的实现是这样的, 在 JNI/Native C++ 代码中,我们将 YUV 数据转换为 RGB 数
..
我正在 Android 设备上实现一个相机应用程序.目前,我使用Camera2 API和ImageReader获取YUV_420_888格式的图像数据,但我不知道如何将这些数据准确写入MediaCodec. 这是我的问题: 什么是YUV_420_888? 格式YUV_420_888是不明确的,因为它可以是属于YUV420家族的任何格式,例如YUV420P、YUV420PP、YUV
..
对于视频图像处理项目,我必须旋转传入的 YUV 图像数据,以便数据不是水平显示而是垂直显示.我使用了 this 项目,它让我深入了解如何将 YUV 图像数据转换为 ARGB实时处理它们.该项目的唯一缺点是它仅在景观中.没有纵向模式选项(我不知道为什么 Google 的人提供了一个仅处理横向的示例示例).我想改变它. 因此,我决定使用自定义的 YUV 转 RGB 脚本来旋转数据,使其以纵向模式
..
通过 camera2 API,我们收到格式为 YUV_420_888 的 Image 对象.我们将使用以下函数转换为 NV21: private static byte[] YUV_420_888toNV21(Image image) {字节[] nv21;ByteBuffer yBuffer = image.getPlanes()[0].getBuffer();ByteBuffer uBuff
..
我写了一个从 YUV_420_888 到 Bitmap 的转换,考虑到以下逻辑(据我所知): 总结该方法:内核的坐标 x 和 y 与 Y 平面(2d 分配)的非填充部分的 x 和 y 以及输出位图的 x 和 y 一致.然而,U-Plane 和 V-Plane 具有与 Y-Plane 不同的结构,因为它们使用 1 个字节来覆盖 4 个像素,此外,可能有一个以上的 PixelStride,此外它
..