openmax相关内容
我有一款适用于 Raspberry Pi 的新相机附件.它尚不支持 video4linux,但带有一个小程序,可以输出 1080p h264 流.我已经验证了这项工作,并通过以下方式将视频推送到标准输出: raspivid -n -t 1000000 -vf -b 2000000 -fps 25 -o - 我想处理此流,以便我最终得到每秒拍摄一次的视频快照. 因为是 1080p,所以我需
..
我按照本教程使用 gst-omx 编译了 gstreamer:http://www.onepitwopi.com/raspberry-pi/gstreamer-1-2-on-the-raspberry-pi/ 一切都很顺利,最后当我运行 gst-inspect-1.0 |我得到了 grep omx: omx: omxmpeg2videodec: OpenMAX MPEG2 视频解码器omx
..
我正在寻找在 Raspberry Pi 上直接解码视频的示例,而不使用 OpenMAX. 这解释了多媒体软件的不同层次: 这里没有显示的附加层,“MMAL" 层,它(我相信)是 OpenMAX 的 Broadcom 包装器.(如果没有,它将是 OpenMAX 的替代品,位于内核驱动程序的顶部)例如 raspivid 和 raspistill 是使用 MMAL 编写的. 我想要一个
..
我有一个Raspberry Pi的新相机附件.它尚不支持video4linux,但附带一个小程序,可播放1080p h264流.我已经验证了这项工作,并通过以下方式将视频推送到标准输出: raspivid -n -t 1000000 -vf -b 2000000 -fps 25 -o - 我想处理此流,以便最终获得每秒拍摄一次的视频快照. 因为它是1080p,所以我需要使用rpi的
..
我按照此教程使用gst-omx编译了gstreamer: http://www.onepitwopi.com/raspberry-pi/gstreamer-1-2-on-the-raspberry-pi/ 一切顺利,最后,当我运行gst-inspect-1.0 |我得到的grep omx: omx: omxmpeg2videodec: OpenMAX MPEG2 Video Deco
..
假设您有一个视频文件. 就我搜索而言,您首先需要知道mediainfo命令使用的是哪个容器. $ mediainfo your_path_to_a_video.file 然后您需要为容器找到一个解复用器,所以您可以这样做 $ gst-inspect-1.0 | grep your_container_name_such_as_ogg 现在您已经拥有适当的解复用器,例如og
..
我试图了解MediaCodec如何用于硬件解码。 我在android内部的知识非常有限。 这是我的发现: 有一个xml文件代表android系统中的编解码器详细信息。以 device / ti / omap3evm / media_codecs.xml为例。 这意味着,如果我们使用带媒体编解码器的Java应用程序创建编解码器 MediaCode
..
我想从一个字节数组缓冲区编码视频,并且这样做,我使用 MPEG4Writer API从本机代码。 我创建了我的自定义 MediaSource 类来提供数据,我将它包装 OMXCodec sp mVideoEncoder = OMXCodec :: Create(client.interface(),omxEncMeta,true,mVideoOutSou
..
我想从一个字节数组缓冲区编码视频,并且这样做,我使用 MPEG4Writer API从本机代码。 我创建了我的自定义 MediaSource 类来提供数据,我将它包装 OMXCodec sp mVideoEncoder = OMXCodec :: Create(client.interface(),omxEncMeta,true,mVideoOutSou
..
我想从一个字节数组缓冲区编码视频,并且这样做,我使用 MPEG4Writer API从本机代码。 我创建了我的自定义 MediaSource 类来提供数据,我将它包装 OMXCodec sp mVideoEncoder = OMXCodec :: Create(client.interface(),omxEncMeta,true,mVideoOutSou
..
OMX提供了一个结构,定义如下 / *参数指定内容URI来使用。 * / typedef结构OMX_PARAM_CONTENTURITYPE { OMX_U32 n大小; / ** LT;该结构的大小以字节* / OMX_VERSIONTYPE n版本; / ** LT; OMX规范版本信息* / OMX_U8 contentURI [1]; / ** LT;该URI名* / } OMX_PA
..
我要寻找的树莓派的解码视频的例子,直接的,不使用的OpenMAX。 这解释了多媒体软件的不同层: 有是未在这里示出的附加的层,“ MMAL “层是(我相信)博通包装周围的OpenMAX。 (如果没有,这将是一个的OpenMAX替代方案中,坐在内核驱动程序的顶部)raspivid和raspistill例如使用MMAL写入 我想的视频去code的例子,其中输入是原始的H.264,输出是在屏幕
..
我开发H264 H / W加速的视频去$ C $为Android铬。到目前为止,我已经过来和一些库媒体codeC , Stagefright ,的OpenMax IL , OpenMax的AL 和的FFmpeg 。有些研究后,我发现 - 我发现的使用stagefright用的FFmpeg的巨大资源,但作为其许可证,它是分布式软件相当严格的,我不能使用FFmpeg的。 (或者可能从这种方法丢弃
..
我试图开发Android应用,在使用姜饼的OpenMAX-AL。 基本上的OpenMAX-AL库不GingerBread.So IM使用来自集成电路的OpenMAX的-AL libray(通过建立源)supporatable在姜饼其示值误差为安装后没有错误.I能够使用该库编译我的示例应用程序below..And还我试图把我的应用程序lib文件夹还是同样的错误里面的库。 我应该做的姜饼使用的
..
请execuse我对这个问题的时间长一点的描述。 我有DM3730处理器定制电路板,并从建筑机器人划艇 HTTP://$c$c.google.com/p/rowboat/wiki/JellybeanOnBeagleboard_WithSGX 目的:启用硬件去codeR 2.1),对于这一点,我需要OMAX-IL接口。因此,看着从TI下载源$ C $ C。但我不觉得 OMAP3
..
我试图连接code从字节数组视频缓冲和这样做,我使用的是从本地code MPEG4Writer API。 我创建我的自定义 MediaSource的类提供的数据,我与 OMX codeC 给它 MPEG4Writer : SP<&MediaSource的GT; mVideoEn codeR = OMX codeC:创建(client.interface(),omxEncMeta,真实,
..
我指的帖子:
..
目前,我试图找出如何通过的OpenMAX访问摄像机中的Android 4.0。该文件是不够的我,所以我现在跟我怎么可以检索正确的奋斗的XADataSource 以下电话。 (* _发动机) - > CreateMediaRecorder(_engine, &功放; _mediaRecorder,// precorder
..
我工作的一个视频会议项目。我们使用软件codeC的EN code和德$ C $的视频帧,将做(最高320P)的罚款支持较低分辨率的温度。我们计划,以支持我们的更高的分辨率应用程序也高达720p。我才知道,硬件加速将做好这项工作相当好。 由于硬件codeC API媒体codeC可从果冻豆起,我已经使用了EN code和德code和工作正常。但我的应用程序从2.3的支持。所以,我需要有一个硬件加速的
..
用例 使用USB镜子的Android屏PC 潜在(母语)实施方法 在使用Android开源,修改使用众所周知的原生API,如的OpenGL /的的OpenMAX 捕获屏幕 讨论 办法#1 肯定会工作(外壳帐户下),然而,Android操作系统每次更新时,自定义code将需要得到更新以跟上操作系统的变化,是办法#2 的API保持固定,也没有必要担心操作系统的改变,问题是,是否有可能镜像
..