h.264相关内容
我对 MoviePlayer 进行了一些简单的计时.java 在 Nexus 5 上运行的 Grafika MediaCodec 示例代码中.我在这些位置: 在第 203 行之前 decoder.queueInputBuffer 在第 244 行之后 decoder.dequeueOutputBuffer 我使用 presentationTimeUs 关联了日志语句. 以下是
..
我需要在没有 MediaExtractor 的情况下使用 MediaCodec,并且我正在使用 FileInputStream 读取文件.目前它不工作,它在屏幕上显示一个绿色的乱码图像. 这是完整的源代码: FileInputStream in = new FileInputStream("/sdcard/sample.ts");String mimeType = "video/avc";
..
我正在尝试让它在 Android 4.1 上运行(使用升级的 Asus Transformer 平板电脑).感谢 Alex 对我上一个问题的回答,我已经能够将一些原始 H.264 数据写入文件,但是此文件只能使用 ffplay -f h264 播放,而且似乎丢失了有关帧率的所有信息(播放速度极快).颜色空间看起来也不正确(atm 在编码器端使用相机的默认设置). 公共类 AvcEncoder {
..
嗨,我正在尝试从 Windows Apache2 提供的静态 html5 页面流式传输视频.根据 http://h264 上的 Apache 指南.code-shop.com/trac/wiki/Mod-H264-Streaming-Apache-Version2这仅适用于 Linux,所以我从 http://h264.code-shop.com/trac/wiki/Mod-H264-Stre
..
大家好,我一直在试图找出如何从 SPS 最终单位计算宽度和高度.我有具有这些参数的 H264 视频 h264 (High), yuvj420p(pc), 1280x720 [SAR 1:1 DAR 16:9], 20 fps, 20 tbr, 1200k tbn, 40 tbc 我一直在寻找可以计算宽度 (1280) 和高度 (720) 的公式,但没有找到任何可以帮助我的公式.现在我正在使用
..
我正在使用 Android MediaCodec 并将其用于来自相机的实时 H264 编码和解码帧.我以同步方式使用 MediaCodec 并将输出渲染到解码器的 Surface 并且一切正常,除了我的实时延迟很长,需要 1.5-2 秒,我很困惑为什么会这样.我测量了编码和解码过程的总时间,它保持在 50-65 毫秒左右,所以我认为问题不在于它们.我尝试更改编码器的配置,但没有帮助,目前配置如下:
..
我有一个使用 SVC 软件从 YUV 格式中提取的 h264 文件.现在,我想计算 h264 文件中每个 GOP 的大小.我们知道 GOP 的大小是两个最近的 I 帧之间的距离.此处.您能否建议我如何计算给定 h264 文件的 GOP 大小.最好用C/C++实现.谢谢 解决方案 好吧,只是解析比特流来找到每个 I 帧有点棘手;除其他外,编码顺序可能(或不)与显示顺序不同.一种解决方案是使用
..
是否有人遇到VideoToolbox无法正确解码Media Foundation Transform(MFT)编码的H264的问题?解码帧的绿色块失真超过帧的一半.我尝试了 Livy Stork的示例来解码MFT编码的H264,它是通过网络从Windows 7桌面上运行的PC视频终结点通过网络传输的.我正在使用Xcode 6.3并在iOS 8设备上运行它. 提示:当MFT编码的H264来自运
..
我正在使用通过avcodec解码的RTSP上具有H.264流的摄像机.对于大多数相机,接收到的每个数据包(NAL单元)代表一个完整的帧(I帧或帧),当我对其进行解码时,每次都会获得一个帧.但是对于另一台摄像机,一帧被分成许多大小不变的NAL单元,当我解码每个数据包时,我没有每个数据包的帧. 我看到NAL单元中有一个开始和结束标志.除了PPS或SPS,永远不会设置结束标志.不过,我可以检测到开
..
我正面临与此处相同的问题尝试在iPad Pro OS v14.3上解码帧时(我也在使用此处,但结果相同. 我还尝试按照此. 我对第二个和第三个起始代码之后的图片数据进行了相同的尝试,并且解码后的图片看起来像此处): [4字节slice1大小] [slice1数据] [4字节slice2大小] [slice2数据] ... [4字节slice4大小] [slice4数据] 请
..
我正在使用本机MediaCodec API通过Android上的RTMP流传输h264视频和AAC音频.视频和音频看起来很棒,但是当以Potrait模式拍摄视频时,在网络上或使用VLC进行播放始终是横向的. 通读h264规范后,我发现可以在补充增强信息(SEI)中指定这种额外的元数据,并且已经将其添加到原始的h264位流中.我的SEI NAL单元遵循以下基本格式,我计划稍后进行优化: v
..
我已经阅读了几篇文章( http://tinyurl.com/nqtfh9a .. .)和链接( http://www.cardinalpeak.com/blog/the-h-264-sequence-parameter-set/)有关SPS和PPS的信息,但无法真正理解. 我已经购买了带有SDK的编码器.在规范中,它给了我这个SPS和PPS,我想知道这里是否有任何帧速率信息: SPS
..
这两个都一样吗?是MPEG-4的H.264编解码器吗?如果我需要将flv转换为高清H.264视频格式怎么办?我想进行在线电视流传输,并希望使用PHP或Python. 解决方案 H.264 是视频压缩的新标准,它具有更高级的功能压缩方法要比基本的 MPEG-4 压缩方法好.其中一个H.264的优点是压缩率高.大约是1.5比2效率比MPEG-4编码高出三倍.如此高的压缩率使得可以在同一硬盘
..
我在gstreamer上没有太多经验,而且我在网上找不到能解决它的东西. 我正在使用此开源开发一个Android应用程序以通过UDP将摄像机作为H264 mpegts流式传输. 我受困于管道,在那里有两个工作管道,但我无法合并在一起一起工作.原始的开源管道: "ahcsrc!队列!glimagesink名称= vsink sync = false" (当ahcsrc代表andro
..
我正在尝试运行qt示例应用程序之一,而没有进行任何修改.它被称为 player ,它是一个多媒体小部件演示.我的系统是Ubuntu 16.04 64位.当我尝试播放视频时,在控制台中看到以下错误: 没有适用于'video/x-h264 类型的解码器 尝试两个不同的视频后,出现完整错误: 开始/home/aras/Qt5.7.0_Sept2016/Examples/Qt-5.7/mult
..
我需要限制视频比特率,哪个标记更适合使用?我重新编码h.264视频. b 之后的 解决方案 :v 是流说明符的示例,该说明符指示和限制流该选项所应用到的位置.因此, -option:a:2 仅适用于第三音频输出流,而 -option:a 将适用于所有音频输出流. -option 将适用于所有流. 但是,对于 -b ,ffmpeg将捕获此语法并将其与 -b:v 相同. 另外,请参阅
..
此视频是使用以下方法创建的ffmpeg命令,来自一系列带有编号和预期时间戳记的图像(假定120 fps恒定帧速率): ffmpeg -framerate 120 -i%03d.png -crf 0 -x264opts keyint = 1:min-keyint = 1 120.mp4 假定帧速率恒定,并且所有帧均为I帧.我预计第6帧将恰好在时间0.05秒[0.05,0.0583333)上显
..
我正在尝试初始化FFMPEG H264编解码器上下文,像这样用SPS帧填充extradata字段: #include#includeint main(){const char sps [] = {0x00、0x00、0x00、0x01、0x67、0x42、0x00、0x0a,0xf8、0x41、0x
..
我正在尝试使用FFMPEG -metadata来更改FFMPEG编码器的编写应用程序,无论出于何种原因,它都在读取输入,但实际上并没有写出任何内容. -map_metadata -metadata:s:v:0 -metadata Writing_application,基本上每个堆栈溢出和堆栈交换线程,但它们根本不会写入文件. ffmpeg -i x.mp4 -s 1920x1080 -
..
我目前正在尝试使用FFMPEG上的H264对RGB24文件进行无损压缩.但是,事实证明,在H264压缩(RGB24-> YUV444)中使用的色彩空间转换是有损的(我猜测是由于量化误差).在用无损H264压缩RGB24文件之前,还有其他方法可以使用(例如程序)将RGB24文件无损转换为YUV吗? 最终目标是压缩RGB24文件,然后对其进行解压缩,使解压缩后的文件与原始文件完全匹配.例如RGB
..