h.264相关内容
MediaCodec具有解码的FPS限制,我想打破这一点,因此我需要自己渲染帧,而不是MediaCodec的内部功能. 我假设只能将RGB565渲染到Android平台上的SurfaceView. 我一直在寻找Android上YUV420-> RGB565的许多解决方案,但是所有解决方案都需要分隔Y U V数据,但是将YUV420SP数据分隔为Y U V会花费很多时间. 我该如何解决?
..
我从服务器接收了h264数据,我想在Android上使用mediacodec和Texture View对该流进行解码.我从服务器获取了数据,将其解析以获取SPS,PPS和视频帧数据,然后通过将此数据发送到mediacodec,但函数dequeueOutputBuffer(info,100000)始终返回-1,而我得到dequeueOutputBuffer超时. 请帮忙,三个星期以来我一直在解
..
我正在为公司项目开发JAVA RTP流应用程序,该应用程序应该能够加入多播服务器并接收RTP数据包.后来我使用H264解包器从NAL FU重新创建一个完整的帧(保持附加数据,直到设置了“结束位和标记位"为止 我想在Android中解码并显示原始的h264视频字节流,因此,我目前正在使用配置了硬件解码器的MediaCodec类. 该应用程序已启动并正在为Jeallybean(API 17
..
我正在手动读取RTP/H264流,并将H264帧传递给Android MediaCodec.我使用"markerBit"作为框架的边框. MediaCodec绑定到OpenGL纹理(SurfaceTexture). 总的来说,一切正常.但是解码器似乎可以缓冲帧.如果我将一帧放入解码器,则不会立即渲染到纹理.在解码器中再放置2-3帧后,第一帧将渲染为纹理. 我正在针对Android 4.4.4
..
我正在尝试使用Android6.0的MediaCodec将h264编码为实时低延迟流. 编码器大约有6帧延迟,我想知道如何减少 代码来自 screenrecord.cpp 部分代码为: while (true) { encoder->dequeueOutputBuffer(&bufIndex); } 编码器以320x480 60 fps的分辨率通过屏幕表面馈送,并通
..
我想使用MediaCodec将Surface编码为H.264. 使用API 18,可以通过调用createInputSurface()然后在该表面上绘制来对表面上的内容进行编码. 我在createInputSurface()上收到IllegalStateException.这是额外的logcat输出: D/H264Encoder(17570): MediaFormat: {f
..
是否有关于Color_FormatSurface(AndroidOpaque)颜色格式的可用文档?我的视频编码器当前不支持此格式,应该添加该功能,但找不到任何内容. 任何帮助将不胜感激. 解决方案 由于不透明,因此没有文档.从编程的角度来看,这是“不透明的",而不是在alpha融合的意义上. “不透明"格式背后的思想是,设备制造商认为最适合该设备的任何内容.在qcom设备上,Y
..
我正在尝试使用android低级媒体api实时解码h264 nals. 每个nal包含一个完整的帧,因此我希望在输入我的nal并调用dequeueOutputBuffer之后,它将“立即"(当然,有一点点延迟)显示我的帧,但不会.我看到第一个帧,出队列仅在向解码器提供第二个帧后才返回第一个缓冲区,此时应渲染第二个帧.帧使用x264的零延迟预设进行编码,因此没有b帧等. 我想也许有一种方法可
..
我有一台通过RTSP(rtsp://...)通过网络提供实时H.264视频的服务器,并且我一直在尝试寻找一种在其浏览器中向用户显示流的方法(位于至少Windows和OS X-Linux是奖励).我目前已经嵌入了VLC Player,并且可以在IE9和Mozilla Firefox 12.0中使用,但是如果用户最多只需要为他们的浏览器或类似的东西安装插件(而不是整个程序),那将是理想的选择.
..
我有一个h264视频文件已加载到内存中,我尝试使用参数"imem-cat = 4"与imem播放,以便vlc将使用访问模块对视频进行解复用,然后vlc启动并成功接收我的imem参数: [0x7f38a0000e28] access_imem demux debug: Using get(0x404e1d), release(0x404e91), data(0x7fff5b4a9430), c
..
http://www.youtube.com/html5 表示Google Chrome符合MediaSource Extensions标准&安培; H.264。 我做了一个简单的测试,检查我的视频是否受Chromium支持,使用
..
SO ... 我在本地文件中通过RTSP捕获了RAW H.264视频数据,我试图在Java FX应用程序中播放视频。为了做到这一点,我需要使用Http Live Streaming。 我已经成功构建了一个Java FX架构的原型,该架构可以通过HLS与本地服务器一起使用包含.m3u8(HLS索引)文件和本地文件夹的本地文件夹播放视频.ts(MPEG-TS)文件。最后一部分是用.264
..
有没有人知道如何在Java环境中解码H.264视频帧? 我的网络摄像机产品支持RTP / RTSP流媒体。 我的网络摄像机提供服务标准RTP / RTSP,它还支持“RTP / RTSP over HTTP”。 RTSP: TCP 554 RTP开始端口:UDP 5000 解决方案 或使用 Xuggler 。与RTP,RTMP,HTTP或其他协议一起使用,可以解码和编码
..
我尝试使用java将大量缓冲图像(由我的应用程序即时创建的预先保存的图像)转换为视频,并希望有一个可以帮助完成该过程的库。 我已经探索了许多不同的选项,例如jcodec(没有关于如何使用它的文档)。 Xuggler(由于与jdk5及其相关库的兼容性问题,无法使其运行)。还有一些文档很差的其他图书馆。 我正在尝试找到一个我可以使用的库,它使用java来(1)通过逐帧写入bufferedi
..
我在iOS文档中注意到 AVAssetWriterInput 您可以为 outputSettings传递 nil 字典,指定不应重新编码输入数据。 用于编码媒体的设置附加到输出。传递nil以指定不应重新编码附加的样本。 我想利用此功能传入流原始H.264 NAL,但我无法将我的原始字节流调整到 CMSampleBuffer ,我可以将其传递到AVAssetWriterInput的 ap
..
我正在尝试为客户端设置一个简单的移动页面,其中包含指向.mp4视频文件的链接。 Lke so: 观看MP4视频
..
我使用以下来获取视频样本缓冲区: - (void)writeSampleBufferStream:(CMSampleBufferRef)sampleBuffer ofType :( NSString *)mediaType 现在我的问题是如何从上面获取h.264编码的NSData sampleBuffer 即可。请建议。 解决方案 2017年更新:
..
在对WWDC2014,Session513进行详细审查之后,我尝试在IOS8.0上编写我的应用程序来解码并显示一个实时H.264流。首先,我成功构建了一个H264参数集。当我得到一个带有4位起始码的帧时,就像“0x00 0x00 0x00 0x01 0x65 ......”,我把它放入CMblockBuffer。然后我使用预览CMBlockBuffer构建一个CMSampleBuffer。之后,我
..
需要解码h264流并获取像素缓冲区 我知道它可以在iOS 8上使用视频工具箱 1.如何将h264流转换为 CMSampleBufferRef ? 2.如何使用要解码的视频工具箱? 解决方案 我假设您已经获得附件B格式的流,如果它已经是AVCC格式(阅读MP4),那么你可以使用AssetReader并且不需要做太多。 对于附件B流(这是ppl。通常称为原始h264流)
..
我正试图从iPhone上的MOV文件中获取h.264 NAL单位, 以便从iPhone相机到服务器的RTP h.264视频。 Apple的API不允许从相机输出直接访问编码比特流,所以我只能在写入时访问MOV文件。 Atoms .html#// apple_ref / doc / uid / TP40000939-CH203-BBCGDDDF“rel =”nofollow“> App
..