yuv相关内容
我试图使用libswscale将YUV帧转换为RGB。 这是我的代码: AVFrame * RGBFrame; SwsContext * ConversionContext; ConversionContext = sws_getCachedContext(NULL,FrameWidth,FrameHeight,AV_PIX_FMT_YUV420P,FrameWidth,
..
我想将 YUV420P 图像(从 H.264 流中接收)转换为 RGB ,同时也使用 sws_scale 调整大小。 原始图像的大小为 480×800 。 但是当我尝试更改尺寸时,我得到一个失真的图像,具有以下模式: 更改为 481×800 会产生一个扭曲的B& W图像,看起来像是在中间切割 c> 482×800 会更加扭曲 现在这个模式如下 - 缩放只有在除以4之间的差
..
我有点困惑的NV12格式。我期待的此页面理解的格式。 我目前了解的是,如果你有 640×480 diminsion的图像或视频,然后在Y架飞机将是具有 640× 480 字节,U和V两个平面有二分之六百四十点¯x二分之四百八十○。这并不意味着,美飞机具有二分之六百四十点¯x二分之四百八十○和V平面有二分之六百四十点¯x二分之四百八十○都只有二分之六百四十点¯x二分之四百八十○字节。所以在出缓冲器
..
如何阅读任何YUV图像? 如何能在YUV图像的尺寸读取到缓冲区通过? 解决方案 通常,当人们谈论YUV他们谈论的 YUV 4:2:0 。参考到的任何的YUV图像是误导,因为有许多不同的格式,并且每个的处理方式不同。例如,生YUV 4:2:0(按照惯例,带延长 .yuv 文件)不包含任何尺寸数据;而 Y4M 文件通常做的。所以,你真的需要知道你正在处理什么样的形象与你开始阅读之前。
..
我想的一对转换算法,一是从RGB到YUV,其他从YUV到RGB,这是彼此的逆。也就是说,一个往返转换应保留值不变。 (如果你喜欢,请用Y'UV,YUV,的YCbCr,YUV的YPbPr) 这样的事情确实存在?如果是这样,那是什么? 发布解决方案(
..
由PIL v1.1.7使用的算法给我'淘汰'的妆效。当我使用的ffmpeg转换成同一来源的数据看起来正常。用mplayer给予的ffmpeg相同的结果(可能是他们使用下的同一库)。这使我相信PIL可堆砌了他们的色彩空间转换。转换似乎 libImaging / ConvertYCbCr.c要采购: / * JPEG / JFIF的YCbCr转换 Y = R * 0.29900 + G *
..
如何执行RGB->用C YUV转换/ C ++? 我有一些位图.. RGB我需要将其转换为YUV 利布斯? TUTS?文章? 解决方案 ImageMagick的?
..
我试图捕捉摄像头preVIEW图片及它的一些图纸。问题是,我从相机preVIEW大约只有3-4 fps的绘画,有一半的帧处理时间接收和解码NV21形象,转换为位图。我有一个code做这个任务,这是我的另一个问题堆栈中。它似乎没有要快,但我不知道,如何优化它。大约需要100-150毫秒。三星注3,图像尺寸1920×1080。我怎样才能使它工作得更快? code: 公共位图curFrameImag
..
我期待一些优化上证所code我写了YUV转换为RGB(平面和打包YUV功能)。 我使用SSSE3的那一刻,但如果有从后面SSE版本的实用功能也没关系。 我主要感兴趣的我怎么会制定出处理器摊位等等。 任何人都知道的那些SSE code的静态分析任何工具? ; ;版权所有(C)2009-2010大卫McPaul ; ;版权所有。根据MIT许可证的条款分发。 ;;一个颇为未优化集SSSE3 YU
..
如何节省通过TangoService_connectOnFrameAvailable(框架),并正确显示在我的电脑上?作为 提到此参考页中,像素被存储在HAL_PIXEL_FORMAT_YV12格式。在TangoService_connectOnFrameAvailable我的回调函数,我保存框架是这样的: 静态无效onColorFrameAvailable(void *的背景下,TangoCa
..
我想转换图像从YUV_420_888到RGB和我有一些麻烦输出图像。在我的ImageReader(利用摄像头2 API来获得此图像preVIEW)获得的图像格式YUV_420_888。 的ImageReader = ImageReader.newInstance(1920,1080,ImageFormat.YUV_420_888,10); 在为YuvImage类写作Android SDK中,
..
我想要获得相机的preVIEW字节[],将其转换为位图,并与imageView.setImageBitmap()一个ImageView的显示它 我已经成功地启动preVIEW并在surfaceView显示它,但我不知道如何在RGB位字节[]数据(即进来YUV格式我认为)转换成显示它在一个ImageView的。 在code我试图为以下内容: 相机= camera.open(); 参数= cam
..
我使用RenderScript和分配,以获得从Android摄像机2 API YUV_420_888框架,但一旦我从分配复制字节[]我只收到3架飞机组成该帧的Y平面,而U和V平面值在字节[]设置为0。我试图模仿从previos相机API上previewframe为了在镜头帧的处理程序来执行。我的配置是一样创建: Type.Builder yuvTypeBuilderIn =新Type.Buil
..
我想创建一个使用bitmapfactory位图类。我得到相机preVIEW图像YUV格式和去code手动灰度图像。当我尝试创建位图对象通过BitmapFactory返回null。 {尝试 对于(INT Y = 0; Y< frameHeight; Y ++){ 为(中间体X = 0; X&下; frameWidth; X ++){
..
我要寻找H / W加速的方式来RGB帧的android转换为YUV(比如说YUV420)。 我确实看到Renderscript有intrisics为YUV这样对RGB转换。我找了RGB虽则YUV。结果 我的Cortex-A8需要这个嵌入式系统(基于Android 4.0.3)与SGX530 GPU核心。我喜欢做这一点,保持在每秒10帧改变720P ARGB框架。在ARM A8内核这样做是不行的
..
即时通讯在Android的发展,并希望将字节数组从相机的previewCallback,这是YUV格式,以RGB-格式转换。 我已经用在这个答案中给出的函数:从视频图像获取的帧在Android的 它完全在Java中,但我的问题是,我想使函数在C ++中(我使用的NDK,而不是非常熟悉C ++)。 我曾尝试创建C ++中的功能,但它总是让人奇怪的结果(例如图片全部是绿色)。 有没有人有类
..
我从相机获得preVIEW数据。它是在NV21格式。我想保存preVIEW到SD卡即位图。我的code越来越图像并保存,但在画廊它不是捕捉preVIEW。这仅仅是黑色矩形,这里是code。 公共无效processImage来(){ 位图位图= NULL; 如果(标志==真){ 标志= FALSE; 如果(mCamera!= NULL){
..
我要处理,我通过改变像素的颜色在Android手机上录制的视频。我知道该怎么做,我要处理,但我不知道把一切在一起的最佳方式。 到目前为止,我的的事情能做是: 从一个视频作为的YCrCb(YUV)获取单个帧 修改的YCrCb我多么希望字节 转换或YCrCb到RGB阵列 RGB阵列转换为位图 我怎样才能把一切融合在一起,并重新保存为我能在Android上播放视频? 我可以从YCr
..
我试图用摄像机2 API来实现摄像头preVIEW图像数据处理如下建议:我成功地接收使用onImageAvailableListener回调,但对于未来的处理我需要从YUV_420_888 android.media.Image得到位图。我搜索了类似的问题,但没有人帮助。 能否请你建议我如何转换android.media.Image(YUV_420_888)为位图或者有听力为preVIEW帧更好
..
我需要显示JPEG图片,并将其转换为YUV420SP。首先,我用SkBitmap解析JPEG和显示它,然后我用下面的code转换RGB565到YUV420SP在Android上,但它花费75ms转换一个640 * 480的RGB565画面,所以任何人都知道,更快的方式转换成RGB565以YUV420SP在Android?或更快的方式转换成JPEG文件YUV420SP在Android? //从R
..