h.264相关内容
编辑:这个问题已经变得非常流行,并且是搜索“将mkv转换为h264 ffmpeg"的最佳结果之一.因此,我觉得应该添加这个选项,以便对这个问题绊脚石的任何人都可以使用 ffmpeg -i input.mkv -c:v libx264 -c:a aac output.mp4 as libvo_aacenc 在最新版本的FFmpeg中已被删除,它现在具有本机aac编码器.有关更多信息,请访问
..
我正在尝试将ffmpeg的视频以恒定的比特率编码为H.264(通过libx264库).我知道,我知道VBR通常是首选,但是对于此特定工作,我需要使用CBR(只要每秒这么多的千字节;不必每帧精确地千字节,afaik).我用来测试的示例视频来自此处: http://support.apple.com/kb/HT1425 ) 使用MPEG-4视频编码视频时,我可以获得恒定的比特率(使用命令 ffm
..
我有两个mpeg-ts + h.264视频文件,我尝试使用ExoPlayer在Android设备(Samsung Tab A 10.1“)上读取这些文件: SimpleExoPlayerView视图=新的SimpleExoPlayerView(this);TrackSelection.Factory videoTrackSelectionFactory = new AdaptiveVideoT
..
因此,我正在尝试制作一个流媒体,以将视频从一台计算机流传输到局域网上的另一台计算机(或现在是同一台).我需要它使用尽可能少的带宽,所以我尝试在h264中进行编码.我在执行此操作时遇到了麻烦,而且我真的不知道从哪里开始.现在,它以jpg编码,并且正在逐帧发送.但是,我知道这效率很低,并且占用大量带宽.这是我当前的接收方代码. import cv2进口插座进口_pickle导入时间主机="192.
..
我已经使用x264,x264_encoder_encode编码了一些帧,然后使用如下函数创建了AVPackets: bool PacketizeNals(uint8_t * a_pNalBuffer,int a_nNalBufferSize,AVPacket * a_pPacket){如果(!a_pPacket)返回false;a_pPacket-> data = a_pNalBuffer;a
..
第一次来这里要保持柔和. 我已经在给定的H.264字节流上工作了几周: 一般说明: 字节流不是来自文件,而是从外部来源实时馈给我的. 字节流使用Android的媒体编解码器进行编码. 将流写入扩展名为.H264的文件时,VLC可以正常播放. 我要实现的目标是什么?以下之一: 将H264流的帧转换为可保存的图片文件(png/jpeg等) 将H264原始字节转换
..
我正在尝试获取h.264视频以在Qualtrics中自动播放.这是视频的HTML代码(我已从代码中删除了源代码).
..
Media Foundation h264编码器性能不佳 我正在编写一个实时记录PC屏幕并使用Media Foundation h264编解码器对其进行编码的应用程序. 编码会消耗大量CPU资源.在我停止录制视频(或通过简单地停止向编码器提供视频和音频帧来暂停它)之后,CPU负载会长时间保持很高的状态(5-10秒或更长时间).在这段时间内,应用程序会等到IMFSinkWriter :: Fi
..
如果nal用于RTP封装,那么我在NALU方面可以改变的内容和大小? 解决方案 您可以更改所需的任何内容,前提是生成的位流仍符合以下条件: MPEG-4第10部分规范(H.264) RTP RFC 3550(RTP),3984(H.264的RTP有效负载)
..
了解到Cisco将其h.264编解码器作为开源软件这一事实,我想将其添加到Android WebRTC SDK中.我尝试使用webRTC API创建自定义VideoEncoder,但是我发现编解码器的选择由其名称决定. SoftwareVideoEncoderFactory类返回一个表示基于VideoCodecInfo名称的特定编解码器的类: VideoCodecInfo codecInfo =
..
我试图熟悉libav,以便处理来自支持GenICam的摄像机的原始H.264流. 我想通过GenICam提供的接口(API)接收原始数据,然后将该数据转发到libav中,以生成一个容器文件,然后将其流式传输到VLC等播放设备,或者(后来)流式传输到自己实现的显示. 到目前为止,我试用了GenICam示例代码,该示例代码将原始H.264数据传输到"sample.h264"文件中.我已经通过命令
..
我正在尝试在我的网站上播放.h264文件(后缀为.h264的文件,而不是.mp4!)有什么办法可以做到这一点? html标记似乎不支持它. 该网站在Raspberry pi上运行,并且无法将其自动转换为mp4,因为它将使后端崩溃.这些视频是由安装在树莓派上的摄像头生成的. html: % if loaded_video is not None:
..
我查看了RFC,注意到可以解释为什么发生以下情况(尽管解码器仍可以制作原始电影). 我使用VSS h.264编码器传输了H.264/AVC二进制文件,字节流看起来像这样E5 46 0E 4F FF A0 23 ... 当我在RTP Broadcaster/RTSP接收器之后的接收器一侧读取电影数据时,我得到了额外的未知数据,但是总是在相同的地方,在开始代码前缀(0x00000001)之
..
我只是从RTSP DESCRIBE请求中获得响应.[对于H264流] a=fmtp:96 profile-level-id=42A01E;packetization-mode=1; sprop-parameter-sets=Z0IAKOkAoAQNgPsgAAADACAAAAMDwWIEJQ==,aM44gA== 对于 sprop-parameter-sets = Z0IAKOkA
..
在尝试在android中显示yuv视频文件时,我有一些正在使用的yuv视频文件. 此视频yuv文件video1 (160 * 120分辨率)是我从服务器上捕获的原始h264数据,并使用OpenH264转换为yuv文件. 我使用YUV Player Deluxe播放了上述yuv视频文件,并且播放效果非常好. 当我尝试在Android中播放相同内容时,无法正确再现颜色分量.图像几乎显
..
根据RFC 6184: H.264的附件B定义了一种封装过程来传输 面向字节流的网络上的NALU.在此范围内 备忘录,附件B不相关. 我看到了很多这样的SPS/PPS的examplex,包括RFC6236 a=fmtp:99 packetization-mode=0;profile-level-id=42e011; \ sprop-parameter-sets=Z0L
..
基本上,视频大小是通过计算得出的: Video Size per Second (bps) = Frame Rate (fps) * Horizontal Pixels * Vertical Pixels * Bit Depth (bit) / Compression Ratio by Codec 当我在某处阅读时,mp4视频的拇指压缩比是50.因此,对于720p 24fps 24位彩色
..
我正在开发一个适用于Android OS的应用程序,我需要使用h.264编解码器进行编码的摄像机的实时解码视频流,将帧数据转换为RTP数据包,然后将数据包发送到服务器. 首先,可以尝试在PC上实现从HDD预先录制的视频文件(带有h.264的mp4文件)中读取视频,以简化开发和调试. 有现成的解决方案吗?有任何想法吗?谢谢! 解决方案 请参见Spydroid.它将摄像机的输入通过
..
我们想建立一个实时视频聊天网站,并正在寻找基本的架构建议和/或对要使用的特定框架的推荐.这是该网站的基本功能: 大多数视频流将通过网络摄像头等从单个人进行直播,并且通常会有1-10人观看,尽管高端观众可能多达100多人. 音频和视频不必具有超高品质,但是必须“足够好".重点是在视频(和音频)中传达基本信息.如果偶尔帧速率下降到很低,然后很快又恢复正常,我们可以忍受. 预算是一个问
..
首先,标题中的“正确"是指 tl; dr:对视频进行编码并将其直接存储到FLV并在两个单独的步骤中进行操作之间是有区别的.我需要单独进行操作,如何获得与直接进行操作相同的结果? Nvidia的硬件编码器NVENC无需容器即可生成原始H.264数据,这在大多数视频播放器中都很难播放.对于Adobe AIR应用程序,我需要将视频包装为FLV格式,为此我想使用FFMPEG: ffmpeg -
..