stagefright相关内容
最近开始使用 Android Media Codec 类来渲染来自 Native C++ 应用程序的视频帧.能够使用同步方法 [queueInputBuffer 和 deququeInputBuffer] 使用 Android MediaCodec 类成功解码和渲染音频和视频流. Android 有一个很好的参考示例,说明如何在 Native C++ 应用程序中执行此操作.例如:Simple
..
我的任务涉及将视频解码器集成到 Stagefright(Android 的多媒体框架)中.我搜索并发现以下关于为 Stagefright 创建新插件的内容: 要添加对新格式的支持,您需要: 如果容器还不支持,开发一个新的 Extractor 类. 开发一个新的解码器类,实现StageFright核心读取数据所需的接口. 将要读取的文件的 mime 类型与 OMXCodec.
..
最近我成功地将视频解码器移植到了 android.还将输出转储到表面视图并使用本机 API 检查输出.现在下一个任务是实现播放、暂停、流媒体等,即媒体播放器的其他功能.这样做将是一个返工,因为所有这些功能都已经在 android 多媒体框架中定义了.听说我们可以把我们的解码器做成一个插件,集成到Android的多媒体框架中.尽管我在谷歌上搜索过相同的内容,但我几乎找不到任何有关相同的信息.所以我恳
..
我目前正在开发一个应用程序,需要记录音频、将其编码为 AAC、流式传输并在反向执行相同的操作 - 接收流、解码 AAC 和播放音频. 我使用 MediaRecorder 成功录制了 AAC(包装在 MP4 容器中),并成功使用 AudioRecord 类上传音频.但是,我需要能够在流式传输音频时对其进行编码,但这些类似乎都无法帮助我做到这一点. 我研究了一下,发现大多数遇到这个问题的人
..
我需要一个研究项目的硬件加速 H.264 解码,以测试自定义协议. 由于我在网络上进行了搜索,因此我找到了几种在 Android 上执行硬件加速视频解码的方法. 使用 ffmpeg libstagefright(概述libstagefright) 或直接在操作系统中使用 libstagefright,例如 这里. 在特定硬件平台上使用 OpenMax.像这里关于三星设备和此处了解高通
..
我已经在 Android 上编译了 FFmpeg (libffmpeg.so).现在我必须构建一个像 RockPlayer 这样的应用程序,或者使用现有的 Android 多媒体框架来调用 FFmpeg. 您是否有在 Android/StageFright 上集成 FFmpeg 的步骤/程序/代码/示例? 你能指导我如何使用这个库进行多媒体播放吗? 我有一个要求,我已经有音频和视
..
最近我成功地将视频解码器移植到了 android.还将输出转储到表面视图上,并使用本机 API 检查输出.现在下一个任务是实现播放、暂停、流式传输等,即媒体播放器的其他功能.这样做将是一项返工,因为所有这些功能都已在 android 多媒体框架中定义.听说可以把我们的解码器做成插件,集成到Android的多媒体框架中.虽然我用谷歌搜索了相同的信息,但我几乎找不到任何关于相同的信息.所以我恳请任何读
..
最近开始尝试使用 Android Media Codec 类来渲染来自本机 C++ 应用程序的视频帧.能够使用同步方法[queueInputBuffer 和 deququeInputBuffer] 使用 Android MediaCodec 类成功解码和呈现音频和视频流. Android 有一个很好的参考示例,说明如何在 Native C++ Application 中执行此操作.例如:Si
..
我需要在没有 MediaExtractor 的情况下使用 MediaCodec,并且我正在使用 FileInputStream 读取文件.目前它不工作,它在屏幕上显示一个绿色的乱码图像. 这是完整的源代码: FileInputStream in = new FileInputStream("/sdcard/sample.ts");String mimeType = "video/avc";
..
在Android 2.3或更高版本上,是否可以直接访问libstagefright.so以便从JNI层解码H.264流? 解决方案 如果您的目标是解码基本H.264流,则您的代码将必须确保提取了该流,将codec-specific-data提供给向编解码器提供主要是SPS和PPS数据和帧数据以及时间戳的编解码器.在所有Android版本中,最常见的接口是OMXCodec,它是对基础OMX组
..
我在流视频方面还很陌生,所以请多多包涵. :) 我正在尝试将m3u8流从iPhone移植到Android.在m3u8供稿中查找,我发现了一些.ts文件.据我所知,.ts文件本身就是包含视频流(基本流)的包装器. 是否可以在Android中播放.ts文件? (文档仅列出3gp和mp4作为受支持的格式.) 是否有一种方法可以提取基本流并仅处理视频提要?如果是3gp或mp4,就可以了.
..
我试图了解MediaCodec如何用于硬件解码。 我在android内部的知识非常有限。 这是我的发现: 有一个xml文件代表android系统中的编解码器详细信息。以 device / ti / omap3evm / media_codecs.xml为例。 这意味着,如果我们使用带媒体编解码器的Java应用程序创建编解码器 MediaCode
..
最近开始玩弄Android Media Codec类,以渲染来自Native C ++应用程序的视频帧.能够使用同步方法[queueInputBuffer和deququeInputBuffer]使用Android MediaCodec类成功解码和呈现音频和视频流. Android有一个很好的参考示例,说明了如何在本机C ++应用程序中执行此操作.例如:SimplePlayer.cpp
..
我想从一个字节数组缓冲区编码视频,并且这样做,我使用 MPEG4Writer API从本机代码。 我创建了我的自定义 MediaSource 类来提供数据,我将它包装 OMXCodec sp mVideoEncoder = OMXCodec :: Create(client.interface(),omxEncMeta,true,mVideoOutSou
..
我想从一个字节数组缓冲区编码视频,并且这样做,我使用 MPEG4Writer API从本机代码。 我创建了我的自定义 MediaSource 类来提供数据,我将它包装 OMXCodec sp mVideoEncoder = OMXCodec :: Create(client.interface(),omxEncMeta,true,mVideoOutSou
..
我想从一个字节数组缓冲区编码视频,并且这样做,我使用 MPEG4Writer API从本机代码。 我创建了我的自定义 MediaSource 类来提供数据,我将它包装 OMXCodec sp mVideoEncoder = OMXCodec :: Create(client.interface(),omxEncMeta,true,mVideoOutSou
..
我真的试图去使用HW与Stagefright库code H264视频。 我已经使用的此处。即时通讯在 MedaBuffer 让德codeD数据。渲染 MediaBuffer->()我在AwesomePlayer.cpp试图数据 AwesomeLocalRenderer 。 但画面屏幕失真 这里是链接原件及坠毁的画面。 和也试过这example` SP<元数据>元数据= m
..
大家: 我是新来的ffmpeg。最近我工作的项目ffmpeg的端口到Android设备上。 在开始的时候,我编的ffmpeg在一个非常正常的方式共享库(.so文件)下在互联网上一些导游,它们加载到我的Android应用程序。它完美的作品。 现在我想的ffmpeg使用libstagefright实现硬件解码。 问题是,我可以编译的.so库,但是当我启动我的应用程序并加载这些的.so库,总
..
我开发H264 H / W加速的视频去$ C $为Android铬。到目前为止,我已经过来和一些库媒体codeC , Stagefright ,的OpenMax IL , OpenMax的AL 和的FFmpeg 。有些研究后,我发现 - 我发现的使用stagefright用的FFmpeg的巨大资源,但作为其许可证,它是分布式软件相当严格的,我不能使用FFmpeg的。 (或者可能从这种方法丢弃
..
请execuse我对这个问题的时间长一点的描述。 我有DM3730处理器定制电路板,并从建筑机器人划艇 HTTP://$c$c.google.com/p/rowboat/wiki/JellybeanOnBeagleboard_WithSGX 目的:启用硬件去codeR 2.1),对于这一点,我需要OMAX-IL接口。因此,看着从TI下载源$ C $ C。但我不觉得 OMAP3
..