android-mediacodec相关内容
我遇到的问题如下: 我有一块定制电路板,屏幕分辨率为900x500像素。主板运行Android 8.0。 我得到了1280x720分辨率的视频流(当手机连接到主板时来自Android Auto),但内容包含在我屏幕大小为900x500的视频中。 基本上,如果您看到完整的视频,在较大的框架内有一张较小的图像,黑边距为(1280-900)/2=190和(720-500)/2=110,
..
我正在尝试在 android 4.4 中修改 screenrecord 的源并降低捕获的帧速率,但无论我输入什么值: format->setFloat("frame-rate", 5); 结果总是一样的(非常高的帧率) 编码器是否忽略了这个属性?如何控制帧率? 解决方案 frame-rate 值不会被忽略,但它并没有做你想做的事情. frame-rate 和 i-frame
..
最近开始使用 Android Media Codec 类来渲染来自 Native C++ 应用程序的视频帧.能够使用同步方法 [queueInputBuffer 和 deququeInputBuffer] 使用 Android MediaCodec 类成功解码和渲染音频和视频流. Android 有一个很好的参考示例,说明如何在 Native C++ 应用程序中执行此操作.例如:Simple
..
我从 Grafika 开始了一个项目并对其进行了修改.我有一个框架(与原始框架没有太大区别),它从 Camera 捕获预览,并以不同的分辨率同时将其连续编码为视频. MediaCodec(用于编码)被配置为使用 COLOR_FormatSurface 以便我们能够渲染到使用 getInputSurface() 使用 GLES. 媒体格式设置为MIME类型video/avc 对于大
..
实际上,我正在使用 OpenGL,我想将所有纹理放入 MP4 中以压缩它们. 然后我需要从我的 Android 上的 MP4 获取它 我需要以某种方式解码 MP4 并按请求逐帧获取. 我找到了这个MediaCodec https://developer.android.com/reference/android/media/MediaCodec 还有这个MediaMe
..
我正在尝试实现 https://android.googlesource.com/platform/cts/+/jb-mr2-release/tests/tests/media/src/android/media/cts/DecodeEditEncodeTest.java但通过使用视频文件 mp4 修改源.mime 类型为 video/avc,比特率 288kbps,iframeinterval
..
我的目标是在 Android 中录制视频,并在录制时嵌入秒表. 我关注了 Grafika Project、CameraCaptureActivity.java 的示例,他们在那里使用 OpenGL 2.0 录制一个小块以及录制视频.他们正在使用以下代码在 OpenGL 2.0 中绘制块 private static void drawExtra(){GLES20.glClearColor(
..
我的目标是获取一个 M4V 视频文件,将视频片段解码为 PNG 帧,修改这些帧,然后重新编码修剪后的视频(也为 M4V). 工作流程是这样的:[Input Video] ->导出框架 ->修改框架->编码帧->[输出视频]. 对于解码过程,我一直在参考 bigflake 示例.使用 ExtractMpegFramesTest 示例代码,我能够生成 Bitmap 来自 .m4v 文件的帧
..
我正在尝试使用以下 MediaExtractor 示例: http://bigflake.com/mediacodec/- ExtractMpegFramesTest.java(需要 4.1,API 16) 我遇到的问题是 outputSurface.awaitNewImage();似乎总是抛出 RuntimeException("frame wait timed out"),只要 m
..
我正在实施一个关于使用新 MediaCodec 和Android 4.3 的 MediaMuxer API. 通过将 recordingHint 设置为相机参数,我设法以大约 30fps 的帧速率记录预览流. 但是,我遇到了延迟/滞后问题,不知道如何解决.当使用相当标准的质量设置(1280x720,比特率约为 8.000.000)录制相机预览时,预览和编码材料偶尔会出现延迟.更具体地说
..
这是我的场景: 从网上下载 avi 电影 打开位图资源 将此位图覆盖在电影底部的所有背景帧上 将视频保存在外部存储设备上 视频长度通常为 15 秒 这可以使用 MediaMuxer 实现吗?很高兴收到有关此事的任何信息 我一直在寻找 http://bigflake.com/mediacodec/#DecodeEditEncodeTest(谢谢@fadden),上面写着:
..
我正在尝试修改 ExtractDecodeEditEncodeMuxTest.java 以便从通过 Cordova 的 device.capture.captureVideo 录制的 mp4 中提取音频和视频、解码音频、编辑解码的音频样本、编码音频和复用将音频与视频一起返回并再次保存为 mp4. 我的第一次尝试只是提取、解码、编码和多路复用音频,而不尝试编辑任何音频样本——如果我能做到这一点
..
我正在尝试使用 MediaExtractor/MediaCodec 播放 mp3 流.由于延迟和长缓冲区大小,MediaPlayer 是不可能的. 我发现的唯一示例代码是:http://dpsm.wordpress.com/category/android/ 代码示例只是局部 (?) 并且使用文件而不是流. 我一直在尝试调整此示例以播放音频流,但我无法理解它应该如何工作.像往常一
..
我正在做一个视频会议项目.我的视频显示正在使用表面视图.现在,在视频通话期间,传入帧的纵横比可能会发生变化.所以我尝试了以下代码 public void surfaceResize() {//WindowManager wm = (WindowManager) context.getSystemService(Context.WINDOW_SERVICE);点大小 = new Point();i
..
我正在尝试在 android 4.4 中修改 screenrecord 的源并降低捕获的帧速率,但无论我输入什么值: format->setFloat("frame-rate", 5); 结果总是一样的(非常高的帧率) 编码器是否忽略了这个属性?如何控制帧率? 解决方案 frame-rate 值不会被忽略,但它不会做你想要的. frame-rate 和 i-frame-in
..
我正在尝试使用 MediaCodec 从视频文件中获取所有帧.如果我尝试在 SurfaceView 上显示视频,则一切正常.但是如果表面为空,并且当我尝试从字节数组中获取位图时,总是会获取空值或运行时异常. 这是我的代码: private class PlayerThread extends Thread {私人 MediaExtractor 提取器;私有 MediaCodec 解码器;私
..
因此,在我的应用程序中,我能够使用 GPUImage 库. 基本上,我(库)将从摄像头获取输入,获取原始字节数据,将其从 YUV 格式转换为 RGBA 格式,然后对该图像应用效果并显示在 SurfaceGLSurfaceView 使用 OpenGL.最后,对于用户来说,它看起来就像一个应用了效果的视频. 现在我想使用 Surface 的帧记录为视频"nofollow noreferre
..
我正在尝试使用 Android MediaCodec API 对 NV12 流进行硬件编码 (avc). 使用 OMX.qcom.video.encoder.avc 时,分辨率 1280x720 和 640x480 工作正常,而其他分辨率(即 640x360、320x240、800x480)产生色度分量似乎发生偏移的输出(请参阅 快照). 我已通过将输入图像保存到 jpeg 文件来仔细
..
我正在寻找一种“压缩"mp4 视频的方法.为此,我想降低视频的分辨率和/或降低 FPS. 经过长时间的研究,我认为这样做的方法是使用MediaCodec和相关API如下: -> MediaExtractor 从 mp4 文件中提取编码的媒体数据.-> MediaCodec (Decoder):解码每一帧以备后用.-> MediaCodec (Encoder):此时,我想这就是我们应该建
..
我使用 Android 的 MediaCodec API 编写了一个 H264 流编码器.我在大约十种不同处理器的不同设备上对其进行了测试,除搭载 Snapdragon 800 的设备(谷歌 Nexus 5 和索尼 Xperia Z1)外,所有设备都可以正常工作.在这些设备上,我获得了 SPS 和 PPS 以及第一个关键帧,但在那之后 mEncoder.dequeueOutputBuffer(mB
..