h.264相关内容
我正在开发一个机器人,它使用Gstreamer从Jetson Nano通过UDP将两个摄像头流传输到Android设备。 此时,我正在获取其中一个流,并尝试对视频进行编码以在Android设备上显示。我的GStreamer管道如下所示: rtspsrc location=rtsp://192.168.1.239:8554/test ! application/x-rtp, payloa
..
我正在尝试在我的覆盆子PI中从H.264视频流中捕获一张图像。流正在使用raspivid和WebSocket。但是,无法在imshow()中显示正确的图像。我也尝试设置.reshape(),但收到ValueError: cannot reshape array of size 3607 into shape (480,640,3) 在客户端,我成功地连接到视频流,并获得了传入的字节。服务器正
..
我看到有一些关于此主题的问题,但我仍然收到错误。我所要做的就是将库中的视频转换为HEVC格式,以便它们占用更少的空间。 我试过了: ffmpeg -i input.mp4 -c:v libx265 output.mp4 Ffmpeg似乎需要很长时间,输出大小似乎也差不多。视频可以用VLC播放,但图标很奇怪,当我尝试用QuickTime打开它时,我收到错误消息:‘无法打开文档“outpu
..
在Mac OS 10.13.6上安装OpenCV后: conda install -c conda-forge ffmpeg conda install -c conda-forge opencv 和在视频写入器中使用fourcc = cv2.VideoWriter_fourcc('h', '2', '6', '4') 我收到错误: OpenCV: FFMPEG: tag 0
..
各位, 我正在尝试了解视频比特率、图像大小、编解码器和文件大小之间的关系。例如,如果我有一部电影,图像为1920*1080像素,码率为24 Mbps,长度为2小时,使用的编解码器为H.264,如何才能近似文件大小? 我们可以暂时忽略音频。 任何指针都将不胜感激。 问候您, Peter 推荐答案 您有码率和长度,所以只需将它们相乘即可: 24 Mbps*2
..
我看到了很多关于将moov原子从MP4视频容器的末尾重新定位到开头的问题,以使视频“网络优化”或更容易流媒体。似乎大多数工具在第一次编码视频时都需要显式选项来执行此操作(如果视频可用)。 如果将原子放在开头可以更好地进行流媒体工作,而且事后这样做的成本很高,那么我为什么要用原子放在结尾来编码视频呢?有什么好处? 推荐答案 对文件末尾的MOOV进行编码通常是视频编码器的默认操作,因为它
..
我正在通过串行链路上接收H.64帧,尝试使用GStreamer播放它们。我将大写字母设置为gst_caps_from_string("video/x-h264"),它似乎接受它们(如果我使用其他大写字母,例如application/x-rtp,则GStreamer日志输出报告不兼容的大写字母)。 更具体地说,我使用了以下元素:appsrc ! h264parse ! rtph264pay,看
..
我正在开发 h264 视频编解码器.我想知道:H264中的单个NAL单元是否相当于一个视频帧? 解决方案 不,一个序列的NAL单元可以解码成视频帧,但它们并不等价. http://en.wikipedia.org/wiki/H.264/MPEG-4_AVC http://en.wikipedia.org/wiki/Network_Abstraction_Layer#NAL_Un
..
我能够通过 VLC 命令行接收/查看 UDP h264 数据包(即 VLC --network-caching 0 --demux h264 udp://...) 我计划通过 OpenCV 算法处理这些帧.但是,我似乎找不到将 VLC 帧发送到我的 Python OpenCV 脚本的方法. 是否可以通过管道在单独的脚本中通过 Numpy 处理 VLC 流输出? 我之前曾尝试使用其
..
对于 h264 流,SDP 中 sprop-parameter-sets 中 Base64 解码字节的含义是什么?我如何从这个示例中知道视频大小? SDP 示例: sprop-parameter-sets=Z0IAKeNQFAe2AtwEBAaQeJEV,aM48gA== 从 Base64 解码到 Base16 的第一部分: 67 42 00 29 E3 50 14 07 B6 02
..
我需要将 h264 流从附件 b 格式转换为 AVCC 格式. 我尝试将其从 h264 附件-b 转换为 AVCC:我从附件流中提取了 SPS 和 PPS 并创建了 Extra 数据.然后我在流中查找 0x00 0x00 0x00 0x01 (这应该是每个 Nal 的开头)并继续寻找另一个 0x00 0x00 0x00 0x01 (这将是 Nal 的结尾)然后减去以获得 Nal 长度,然后将
..
是否可以从 Axis 相机通过 RTSP 发送的 H.264 流中读取绝对时间戳? 有必要知道相机何时拍摄了帧. 谢谢安德烈亚 解决方案 正如 Ralf 已经说过的那样 - RTP 时间戳是相对于随机时钟的 - 它们仅用于计算两个帧之间的差异(或一般的 RTP 数据包).要将这些相对值同步到挂钟,您可以使用 RTCP 发送器 - 只需查看 Ralf 提供的链接即可. 对于
..
是否可以使用 iOS 硬件加速 h.264 解码 API 来解码本地(非流式传输)视频文件,然后在其上合成其他对象,并且是否受支持? 我想制作一个涉及在视频前面绘制图形对象的应用程序,并使用播放计时器将我在上面绘制的内容与视频上正在播放的内容同步.然后,根据用户的操作,更改我在顶部绘制的内容(但不是视频) 来自 DirectX、OpenGL 和 OpenGL ES for Androi
..
我正在尝试使用 ffmpeg 从 mp4 或 flv h264 视频(youtube 视频)中提取视频流.原来的视频(test.flv)用 ffplay 播放没有问题,ffprobe 报错如下: ffprobe 版本 N-55515-gbbbd959 版权所有 (c) 2007-2013 FFmpeg 开发人员建立于 2013 年 8 月 13 日 18:06:32,使用 gcc 4.7.3 (
..
我想将我拥有的一组位图编码为 h264.这可以通过 MediaEncoder 实现吗?为了做到这一点,我编写了一些代码,但无法在我尝试过的任何媒体播放器中播放输出.以下是我主要从 Stackoverflow 上找到的其他来源借用的一些代码. mMediaCodec = MediaCodec.createEncoderByType("video/avc");mMediaFormat = Media
..
我正在尝试从 Logitech c920 流式传输视频,它直接输出 h264.发送端是树莓派,接收端是 Windows 7 PC.使用 udp 可以在 Gstreamer 中完美运行: 发件人: gst-launch-1.0 -v v4l2src device=/dev/video0 !\视频/x-h264,宽度=1280,高度=720,帧率=30/1!h264解析!rtph264pay\
..
我一直在尝试使用新的低级 MediaCodec.我在这方面遇到了一些困难,因为 MediaCodecAPI 的文档很差,但我终于找到了一些工作. 我正在按如下方式设置相机: Camera.Parameters 参数 = mCamera.getParameters();参数.setPreviewFormat(ImageFormat.YV12);//参数.setPreviewFpsRa
..
我正在研究 H.264 解码器,想知道在哪里可以找到 SPS 和 PPS.我的参考文献告诉我,这些是在 H.264-Stream 中编码的 NAL 单元,但是当我使用 IsoViewer 查看示例 MP4 文件时,它说 SPS 和 PPS 在 avcC 框中. 这究竟是如何工作的?它如何查找 .mkv 文件或其他 H.264 容器? 解决方案 首先,重要的是要了解没有单一的标准 H.
..
我想使用 ffmpeg 将 mp4 转换为“低尺寸"mp4 ... 我需要一个 mp4 文件,其中包含 h263 视频和 aac 音频(或低成本移动设备支持的一些其他设置.)我主要关心的是是视频可以在大多数设备上播放. 什么是可能的 ffmpeg 命令来完成这个? 提前致谢. 解决方案 MP4 视频的编码方法有很多种,而移动设备的编码方法则更为复杂.我不确定您所说的“低成
..
在解码从基于 H.264 的 SIP 视频呼叫的远程端接收的 H.264 帧时,我收到以下错误.感谢您在理解错误方面的任何帮助. 引用了不存在的 PPS 0decode_slice_header 错误引用了不存在的 PPS 0decode_slice_header 错误无框!引用了不存在的 PPS 0decode_slice_header 错误引用了不存在的 PPS 0decode_slice_
..