h.264相关内容
我需要确认视频文件是(使用Java): 视频已进行H.264编码 音频经过AAC编码 我研究了JMF和Xuggle. Xuggle使加载和解码文件以及将其转换为另一种格式变得更加容易,但是我还无法弄清如何确定到目前为止已加载的文件的编码. 所以我想知道Xuggle是否有能力简单地返回Video&的类型.音频编码文件已经存在,还是我需要读取文件的位来自己确定? 如果我
..
我已按照以下方式创建了一张图表(我正在使用osprey卡输入实时流) (图形编辑工具) -> GDCL MPEG-4 mulitplexer中的鱼鹰模拟视频---->文件编写器(.mp4文件) 文件大小非常大;甚至5秒的文件也只有80 mb. 文件无法播放. 当我使用ffmpeg -i在ffmpeg中查看文件详细信息时, 它将产生错误,例如流0,缺少必需的原子,标头损
..
我试图通过使用十六进制编辑器查看视频文件的比特流来学习一些有关h264的知识.我在此处找到了视频对象平面的起始代码( 0x000001b6)和i帧(0x000001b600). 但是我在视频文件中找不到很多这些字节.多数情况下,这些起始代码出现在文件的开头,中间只有几处.我希望它们在整个文件中以均匀的距离非常规律地显示!? 这样用十六进制编辑器查看文件是否还可以?还存在其他哪些起始代码
..
我正在尝试从H264流中获取尺寸(高度和宽度).我知道要从mpeg2流中获取相同的详细信息,您必须查看序列头起始码((01B3))之后的四个字节. H264可以使用相同的逻辑吗?希望得到我的任何帮助. 解决方案 否! 您必须运行复杂的函数才能从“序列参数集"中提取视频尺寸.这该怎么做?首先,您必须编写自己的Exp-Golomb解码器,或者在线找到一个...在live555源代码中,例
..
Apple是否指定了?一个PES数据包有效载荷应放入多少个访问单元? 此外,我想知道PES数据包中存在哪些前缀起始码(如果有).我假设访问单元中第一个NAL单元之前的那个是无用的,因此不能放置.对吧? 我想知道它是如何专门在HLS中完成的-不一定是其他MPEG-2 TS应用程序. 解决方案 我想知道它是如何在HLS中具体完成的-不一定 任何其他MPEG-2 TS应用程序.
..
我正在尝试使用下面的程序将PCMU G.711加密的数据写入avi多媒体容器,该程序产生Error occurred when opening output file: Operation not permitted,而在使用mov容器时,它产生Error occurred when opening output file: Invalid argument.我将AV_CODEC_ID_PCM_U
..
是否可以在h264中进行完全无损编码? “无损"是指,如果将其馈入一系列帧并对其进行编码,然后从编码的视频中提取所有帧,则将获得与输入中逐像素,逐帧完全相同的帧.真的有可能吗? 举个例子: 我生成一堆帧,然后将图像序列编码为未压缩的AVI(使用virtualdub之类的东西),然后应用无损h264(帮助文件声称设置--qp 0可以进行无损压缩,但是我不知道这是否意味着该过程的任何点都没有损失
..
我是捕捉视频的新手,它是在WOWZA服务器h.264中进行编码的. 我已经检查了很多关于堆栈溢出和google的解决方案,但是还不够完善,可以使用. 基本功能: 从iPhone继续捕获(视频应采用h.264编码) 使用live555库,生成RTSP网址 将同一视频发送到WOWZA服务器以进行直播视频 注意:视频应该可以从iphone设备在服务器上连续播放,而不会出现重大
..
我正在使用libX264库进行编码.在将数据编码为NAL Unit()的形式后......这是我需要的相同格式(AVC),但问题是一帧进入两个Nal单元(一帧=(length,data)+(length,数据))和我需要的(一帧=(长度,数据)以单个单位).当我将其转换为文件然后播放时,它首先显示屏幕的上部,然后显示下部.我的配置参数如下 param.i_width = 1680//; pa
..
如何阅读H264 SPS&使用libavformat API的PPS NAL字节? 我尝试从.mp4视频(编解码器为h264)文件中使用"av_read_frame(input_avFormatContext,& avPkt)" API将视频数据读取为"AVPacket"结构. 我将avPkt->数据转储到文件中.但是读取的第一帧是IDR帧. 使用"ffmpeg -i video
..
我正在编写用于下载视频的用户脚本.网站的Flash Player使用JSON文件. 我的脚本的目的是通过根据网页下载和解析视频来获取视频的网址.目前,它可以成功下载视频的URL摘录. JSON文件的重要部分如下所示: { "ammProfile": "AMM-HBBTV", "version": "VF", "versionPr
..
当我在视频上运行以下行时,它仅输出P帧和B帧,而没有I帧, ffprobe -select_streams v -show_frames -show_entries frame=pict_type -of csv 00000.MTS 视频怎么可能没有I帧. 此处是视频的链接. 根据本教程的定义,P帧仅基于先前的帧构建,如果存在没有其他框架可以建立在如何使用P框架上? ffprobe
..
我正在寻找一种在h264流中查找参考帧的算法.我在不同解决方案中看到的最常见的方法是找到访问单元定界符和IDR类型的NAL.不幸的是,我检查的大多数流都没有IDR类型的NAL. 我将非常感谢您的帮助. 问候 贾塞克 解决方案 H264帧被称为起始代码前缀的特殊标记拆分,该标记为 0x00 0x00 0x01 或 0x00 0x00 0x00 0x01 .两个起始码之间的所有数据都包含一个以
..
我已经从手机中收到了经过解析的h264数据,并且正在尝试从数据中提取帧. 我使用了以下ffmpeg命令行: ffmpeg -i temp.h264 -ss 5 -pix_fmt yuv420p -vframes 1 foo.yuv ffmpeg -s 1280:720 -pix_fmt yuv420p -i foo.yuv output.jpg 这会在ffmpeg版本2.8.14
..
我正在Qt中编写OpenGL视频渲染器,并且几乎可以正常工作.仅当我调整窗口大小时,它才会渲染视频.因此,每次我调整窗口大小时,屏幕上都会绘制一个新框架.我想我忘了在更新框架后调用某些函数. 这是第一帧,没有视频数据时: 调整屏幕大小后,将绘制一个框架: #include #include #include
..
我已经安装了Ubuntu 16.04 LTS和OpenCV 3.4.0(Intel i5和AMD显卡),我需要创建一个受浏览器支持的视频,该视频可以在浏览器中播放. 如果我正在使用H264即时通讯 OpenCV: FFMPEG: tag 0x34363248/'H264' is not supported with codec id 27 and format 'mp4 / MP4 (
..
我正在使用ffmpeg从Cisco 3050 IP摄像机读取h264 RTSP流,并将其重新编码为h264到磁盘(这是我不仅仅使用-codec:copy的原因). ffmpeg版本如下: ffmpeg version 3.2.6 Copyright (c) 2000-2017 the FFmpeg developers built with gcc 6.3.0 (Alpine 6.
..
我能够通过VLC命令行接收/查看UDP h264数据包(即VLC --network-caching 0 --demux h264 udp://...) 我打算通过OpenCV算法处理那些帧.但是,我似乎找不到找到将VLC帧发送到我的Python OpenCV脚本的方法. 是否可以在单独的脚本中通过Numpy传递要处理的VLC流输出? 我以前曾尝试使用其VideoCapture功
..
我正在使用一些技巧来尝试将AVAssetWriter的原始输出写入磁盘.当我通过串联重组单个文件时,生成的文件与AVAssetWriter的输出文件的字节数完全相同.但是,重新组合的文件将不会在QuickTime中播放,也不会被FFmpeg解析,因为存在数据损坏.此处和此处的几个字节已更改,导致生成的文件不可用.我认为这是在每次读取的EOF边界上发生的,但这不是一致的损坏. 我计划最终使用与
..
已经在python中创建了一个rtsp客户端,该客户端接收一个h264流并返回单个h264原始帧作为二进制字符串.我正在尝试即时处理每个h264帧. 我尝试了几种方法将该帧转换为numpy数组进行处理,但均未成功. 到目前为止,我知道cv2.VideoCapture仅接受文件名作为其参数,而不接受帧,也不接受StringIO对象(诸如指向缓冲区的指针的文件),但是我需要将其字符串传递给
..