grafika相关内容
我从 Grafika 开始了一个项目并对其进行了修改.我有一个框架(与原始框架没有太大区别),它从 Camera 捕获预览,并以不同的分辨率同时将其连续编码为视频. MediaCodec(用于编码)被配置为使用 COLOR_FormatSurface 以便我们能够渲染到使用 getInputSurface() 使用 GLES. 媒体格式设置为MIME类型video/avc 对于大
..
我设法用opengl es播放视频,我使用了grafika的ContinuousCaptureActivity的方式,我的数据源是MediaPlayer而不是Camera,这没有什么区别.MediaPlayer 连续生成视频帧,我在 onFrameAvailable 回调中将每一帧绘制到屏幕上.代码如下,效果很好: mVideoTexture.updateTexImage();mVideoTe
..
我正在学习 Grafika 的“Continuous Capture" Activity,它是关于使用 MediaCodec 录制视频. 活动源代码位于https://github.com/google/grafika/blob/master/src/com/android/grafika/ContinuousCaptureActivity.java 程序使用一个 SurfaceTex
..
我正在学习 Grafika 的“连续捕获"活动,它是关于使用 MediaCodec 录制视频. 活动源代码位于 https://github.com/google/grafika/blob/master/src/com/android/grafika/ContinuousCaptureActivity.java 该程序使用 SurfaceTexture obj 接收来自相机的数据,并使
..
最近我正在学习grafika的android Camera和OpenglES(感谢fadden).在大多数设备上都不错,但是我在某些设备上遇到了bug,尤其是MTK设备(例如MT6580,MT8163 ...). 例如,当"CameraCaptureActivity"在MTK中运行时.我收到此错误: java.lang.NullPointerException:尝试在空对象引用上调用虚
..
如果要从SurfaceTexture调用attachToGLContext方法,我试图找出是否需要重新制作Surface.我试图查看android文档,但没有提及. 我猜不是因为据我所知,Surface是SurfaceTexture的缓冲区,可以充当OpenGL上下文的外部纹理.因此,将SurfaceTexture附加到其他上下文应该不会对此产生影响. 有人肯定知道吗? 解决方案
..
未指定此问题的地方只是在 grafika 项目的CameraCaptureActivity之上在github上找到. 它具有使用3x3内核的内置模糊效果 kernel = new float[] { 1f/16f, 2f/16f, 1f/16f, 2f/16f, 4f/16f, 2f/16f, 1f/16f, 2f/16f, 1f/16f }; 但是这种模糊
..
我正在了解Grafika的“连续捕获"活动,它是关于使用MediaCodec录制视频的. 活动源代码位于 https: //github.com/google/grafika/blob/master/src/com/android/grafika/ContinuousCaptureActivity.java 程序使用SurfaceTexture obj从相机接收数据,并使用此Surfa
..
我正在尝试修改 ExtractMpegFramesTest 以便在屏幕上仍然显示使用glReadPixels提取帧. 我复制了用于从ExtractMpegFramesTest中提取帧的相关代码(CodecOutputSurface和STextureRender类),并且帧提取在屏幕外呈现时按预期工作. 我有一个带有SurfaceTextureListener的TextureView,当
..
我正在尝试使用MediaCodec和MediaExtractor对视频进行精确搜索.通过遵循Grafika的 MoviePlayer ,我已成功实施了前瞻性搜索.但是,我仍然在向后搜索中遇到问题.相关的代码位在这里: public void seekBackward(long position){ final int TIMEOUT_USEC = 10000; int inp
..
我设置了设备方向Landscape模式,然后完美保存了视频. 如果我拍了两边的视频. 但是我将设备方向设置为Portrait模式,这项工作很奇怪. 例如: 以下是我录制视频时的截图: 但是当我保存视频并在MXPlayer中观看时,它看起来像这样: 我使用以下代码: Display display = ((WindowManager) getSystemServi
..
我正在努力使用MediaExtractor的seekTo()进行精确查找.虽然我可以尝试无问题地同步帧,但我想尝试特定的时间. 这个问题使我想到了一些实现方法,但是我不确定它们是否有效.基本上,我将必须先寻找最接近的上一个同步帧,然后再提取advance()直到达到目标时间.该过程中的每个帧将被馈送到解码器,即第一个I帧和其余的P帧.这是相关的代码段(基于 google/grafika 的Movi
..
我使用 ContinuousCaptureActivity.java .很完美. 现在,我想在此视频中添加音频. 我知道使用 MediaMuxer 可以在视频中添加音频. 但是问题是我不知道如何使用MediaMuxer. 如果您还有其他没有MediaMuxer的解决方案,请与我分享任何链接或文档. 我也有演示 AudioVideoRecordingSample .但是
..
我从 Grafika 开始了一个项目,并进行了修改。我有一个框架(与原始版本不太一样),它捕获了 Camera 的预览,并在不同的分辨率下同时对视频进行编码。 MediaCodec (用于编码)配置为使用 COLOR_FormatSurface 为了使我们能够使用GLES使用 getInputSurface()来渲染到Surface。 媒体格式设置为MIME类型 video / avc
..
我写了根据连续捕获activity.I想保存视频为JPEG文件的第一帧演示,所以我用这已经是美元的Grafika ppared p $的saveFrame()函数。该函数的源$ C $ c是如下:
..
我设法与OpenGL ES的播放视频,我用grafika的ContinuousCaptureActivity的方式,我的数据源是MediaPlayer的,而不是相机,这没什么区别。 MediaPlayer的不断产生视频帧和我绘制onFrameAvailable回调每一帧屏幕。在code是如下效果很好: mVideoTexture.updateTexImage(); mVideoTex
..
首先感谢法登的精彩例子。 我试着以下 1) 我试图通过获取其ANativeWwindow参照显示图像进入TextureView在本机层,并用ANative锁和unlockpost方法来获取 BufferQueue 并填充数据。 即: ANativeWindow_lock(*窗口,和放大器;缓冲器,NULL) ANativeWindow_unlockAndPost(*窗口);
..
我们知道,我们将获得preVIEW一个啤酒场在同距离,当摄像机preVIEW比例设置为 4:3 而不是 16:9 ,细节如下: Android摄像头API - 古怪的变焦效果 不过,我遇到一个问题时,我曾与Android摄像头preVIEW用OpenGL,也就是下文提到的第二种方式。 有2种方式实现摄像头preVIEW的: 在没有OpenGL的传统方式,只需使用 Camera.set pr
..