h.264相关内容

如何在Android上将MediaCodec解码的图像数据(YUV420SP)实时渲染到SurfaceView?

MediaCodec具有解码的FPS限制,我想打破这一点,因此我需要自己渲染帧,而不是MediaCodec的内部功能. 我假设只能将RGB565渲染到Android平台上的SurfaceView. 我一直在寻找Android上YUV420-> RGB565的许多解决方案,但是所有解决方案都需要分隔Y U V数据,但是将YUV420SP数据分隔为Y U V会花费很多时间. 我该如何解决? ..
发布时间:2020-05-08 01:18:12 移动开发

使用mediacodec解码h264原始流

我从服务器接收了h264数据,我想在Android上使用mediacodec和Texture View对该流进行解码.我从服务器获取了数据,将其解析以获取SPS,PPS和视频帧数据,然后通过将此数据发送到mediacodec,但函数dequeueOutputBuffer(info,100000)始终返回-1,而我得到dequeueOutputBuffer超时. 请帮忙,三个星期以来我一直在解 ..
发布时间:2020-05-08 01:18:04 移动开发

在Android Lollipop 5.0.2上缓慢进行H264 1080P @ 60fps解码

我正在为公司项目开发JAVA RTP流应用程序,该应用程序应该能够加入多播服务器并接收RTP数据包.后来我使用H264解包器从NAL FU重新创建一个完整的帧(保持附加数据,直到设置了“结束位和标记位"为止 我想在Android中解码并显示原始的h264视频字节流,因此,我目前正在使用配置了硬件解码器的MediaCodec类. 该应用程序已启动并正在为Jeallybean(API 17 ..
发布时间:2020-05-08 01:17:00 其他开发

Android MediaCodec似乎可以缓冲H264帧

我正在手动读取RTP/H264流,并将H264帧传递给Android MediaCodec.我使用"markerBit"作为框架的边框. MediaCodec绑定到OpenGL纹理(SurfaceTexture). 总的来说,一切正常.但是解码器似乎可以缓冲帧.如果我将一帧放入解码器,则不会立即渲染到纹理.在解码器中再放置2-3帧后,第一帧将渲染为纹理. 我正在针对Android 4.4.4 ..
发布时间:2020-05-08 01:16:49 移动开发

如何减少MediaCodec H264编码器延迟

我正在尝试使用Android6.0的MediaCodec将h264编码为实时低延迟流. 编码器大约有6帧延迟,我想知道如何减少 代码来自 screenrecord.cpp 部分代码为: while (true) { encoder->dequeueOutputBuffer(&bufIndex); } 编码器以320x480 60 fps的分辨率通过屏幕表面馈送,并通 ..
发布时间:2020-05-08 01:16:39 移动开发

MediaCodec createInputSurface

我想使用MediaCodec将Surface编码为H.264. 使用API​​ 18,可以通过调用createInputSurface()然后在该表面上绘制来对表面上的内容进行编码. 我在createInputSurface()上收到IllegalStateException.这是额外的logcat输出: D/H264Encoder(17570): MediaFormat: {f ..
发布时间:2020-05-08 01:16:23 移动开发

Color_FormatSurface实现

是否有关于Color_FormatSurface(AndroidOpaque)颜色格式的可用文档?我的视频编码器当前不支持此格式,应该添加该功能,但找不到任何内容. 任何帮助将不胜感激. 解决方案 由于不透明,因此没有文档.从编程的角度来看,这是“不透明的",而不是在alpha融合的意义上. “不透明"格式背后的思想是,设备制造商认为最适合该设备的任何内容.在qcom设备上,Y ..
发布时间:2020-05-08 01:16:10 移动开发

android mediacodec:实时解码h264 nals

我正在尝试使用android低级媒体api实时解码h264 nals. 每个nal包含一个完整的帧,因此我希望在输入我的nal并调用dequeueOutputBuffer之后,它将“立即"(当然,有一点点延迟)显示我的帧,但不会.我看到第一个帧,出队列仅在向解码器提供第二个帧后才返回第一个缓冲区,此时应渲染第二个帧.帧使用x264的零延迟预设进行编码,因此没有b帧等. 我想也许有一种方法可 ..
发布时间:2020-05-08 01:11:01 移动开发

在网页中嵌入H.264视频的实时RTSP流

我有一台通过RTSP(rtsp://...)通过网络提供实时H.264视频的服务器,并且我一直在尝试寻找一种在其浏览器中向用户显示流的方法(位于至少Windows和OS X-Linux是奖励).我目前已经嵌入了VLC Player,并且可以在IE9和Mozilla Firefox 12.0中使用,但是如果用户最多只需要为他们的浏览器或类似的东西安装插件(而不是整个程序),那将是理想的选择. ..

使用VLC imem从存储器播放h264视频文件,但是接收到错误“主流错误:不能预填充缓冲器".

我有一个h264视频文件已加载到内存中,我尝试使用参数"imem-cat = 4"与imem播放,以便vlc将使用访问模块对视频进行解复用,然后vlc启动并成功接收我的imem参数: [0x7f38a0000e28] access_imem demux debug: Using get(0x404e1d), release(0x404e91), data(0x7fff5b4a9430), c ..
发布时间:2020-05-01 09:55:02 服务器开发

将H.264附件B转换为MPEG-TS

SO ... 我在本地文件中通过RTSP捕获了RAW H.264视频数据,我试图在Java FX应用程序中播放视频。为了做到这一点,我需要使用Http Live Streaming。 我已经成功构建了一个Java FX架构的原型,该架构可以通过HLS与本地服务器一起使用包含.m3u8(HLS索引)文件和本地文件夹的本地文件夹播放视频.ts(MPEG-TS)文件。最后一部分是用.264 ..
发布时间:2019-01-18 10:37:14 Java相关

如何在Java环境中解码H.264视频帧

有没有人知道如何在Java环境中解码H.264视频帧? 我的网络摄像机产品支持RTP / RTSP流媒体。 我的网络摄像机提供服务标准RTP / RTSP,它还支持“RTP / RTSP over HTTP”。 RTSP: TCP 554 RTP开始端口:UDP 5000 解决方案 或使用 Xuggler 。与RTP,RTMP,HTTP或其他协议一起使用,可以解码和编码 ..
发布时间:2018-12-25 20:31:46 Java开发

使用bufferedimages将视频编码为h264?

我尝试使用java将大量缓冲图像(由我的应用程序即时创建的预先保存的图像)转换为视频,并希望有一个可以帮助完成该过程的库。 我已经探索了许多不同的选项,例如jcodec(没有关于如何使用它的文档)。 Xuggler(由于与jdk5及其相关库的兼容性问题,无法使其运行)。还有一些文档很差的其他图书馆。 我正在尝试找到一个我可以使用的库,它使用java来(1)通过逐帧写入bufferedi ..
发布时间:2018-12-12 19:21:29 Java开发

将AVAssetWriter与原始NAL单元一起使用

我在iOS文档中注意到 AVAssetWriterInput 您可以为 outputSettings传递 nil 字典,指定不应重新编码输入数据。 用于编码媒体的设置附加到输出。传递nil以指定不应重新编码附加的样本。 我想利用此功能传入流原始H.264 NAL,但我无法将我的原始字节流调整到 CMSampleBuffer ,我可以将其传递到AVAssetWriterInput的 ap ..
发布时间:2018-11-02 14:09:19 移动开发

将H.264 I帧放到AVSampleBufferDisplayLayer但不显示视频图像

在对WWDC2014,Session513进行详细审查之后,我尝试在IOS8.0上编写我的应用程序来解码并显示一个实时H.264流。首先,我成功构建了一个H264参数集。当我得到一个带有4位起始码的帧时,就像“0x00 0x00 0x00 0x01 0x65 ......”,我把它放入CMblockBuffer。然后我使用预览CMBlockBuffer构建一个CMSampleBuffer。之后,我 ..
发布时间:2018-09-25 21:26:18 移动开发

使用视频工具箱在iOS 8中解码h264

需要解码h264流并获取像素缓冲区 我知道它可以在iOS 8上使用视频工具箱 1.如何将h264流转换为 CMSampleBufferRef ? 2.如何使用要解码的视频工具箱? 解决方案 我假设您已经获得附件B格式的流,如果它已经是AVCC格式(阅读MP4),那么你可以使用AssetReader并且不需要做太多。 对于附件B流(这是ppl。通常称为原始h264流) ..
发布时间:2018-09-25 21:08:44 IPhone

从快速MOV文件中解析h.264个NAL单位

我正试图从iPhone上的MOV文件中获取h.264 NAL单位, 以便从iPhone相机到服务器的RTP h.264视频。 Apple的API不允许从相机输出直接访问编码比特流,所以我只能在写入时访问MOV文件。 Atoms .html#// apple_ref / doc / uid / TP40000939-CH203-BBCGDDDF“rel =”nofollow“> App ..
发布时间:2018-09-20 21:01:41 移动开发