video-codecs相关内容
我正在开发 h264 视频编解码器.我想知道:H264中的单个NAL单元是否相当于一个视频帧? 解决方案 不,一个序列的NAL单元可以解码成视频帧,但它们并不等价. http://en.wikipedia.org/wiki/H.264/MPEG-4_AVC http://en.wikipedia.org/wiki/Network_Abstraction_Layer#NAL_Un
..
我最近在 Ubuntu 12.04 中安装了 OpenCV 2.4.2. cap = VideoCapture(0) 正在工作.但我无法从某些视频源抓取帧. cap = VideoCapture("input.avi")img = cap.read() 给我一个全零元素的numpy. 我也安装了ffmpeg 0.11,x264的最新快照,v4l-0.8.8(都是最新的稳定版本)
..
我已经下载了一个视频文件并记录了数据包到达时间.我想根据我录制的时间使用 VLC 播放视频.在 VLC 源代码中我应该调用哪个函数以及如何调用它? 我的意思是当我们按下按钮打开视频文件时,VLC通常使用哪些功能来播放视频?因为它的源代码树中有很多文件和函数. 非常感谢. 解决方案 您可以链接到 libVLC 并调用其中的函数.http://wiki.videolan.org/L
..
我正在尝试使用OpenCV(C ++)读取视频文件,对每个帧应用过滤器,然后将新修改的帧写入输出文件.代码的关键部分是这些: int out_format = CV_FOURCC('M','P','4','2');//可以是另一个双倍fps = media.get(CV_CAP_PROP_FPS),宽度= media.get(CV_CAP_PROP_FRAME_WIDTH),高度= media
..
HTML5具有元素,该元素可从服务器下载视频,对其进行解码并进行渲染.他们经常(如果不是总是)使用硬件加速解码(如果可用). 是否可以仅使用解码功能?原因是我使用的是自定义流协议,因此在客户端,我已经编码了需要解码和渲染的视频流. 不幸的是,视频解码器的纯JavaScript实现不适用,因为它们无法提供足够的性能.我只对HVEC或h.264编解码器感兴趣. 解决方
..
我正在开发一个基于webrtc的视频聊天应用程序,当前正在进行视频通话,但是我想使用VideoFileRenderer从远程视频流中录制视频,例如,该接口有许多实现: https://chromium.googlesource.com/外部/webrtc/+/master/sdk/android/api/org/webrtc/VideoFileRenderer.java 这是我正在使用的实现.它将
..
我尝试压缩视频.它在所有设备上都能正常工作,但在 Samsung S5 中会出现以下错误. 错误日志:android.media.MediaCodec$CodecException: Error 0xffffec77 下面有我的压缩功能 public boolean convertVideo(final String path) { MediaMetadataRetri
..
是否存在可以在html5视频元素中播放H.265/MPEG-4 HEVC编解码器的Web浏览器?在什么平台或硬件上? 我听说有关于在硬件解码可用时Edge中支持HEVC的传闻.对于当前带有HEVC硬件解码功能的GPU和CPU,我想知道还会跟随哪些其他浏览器供应商. Firefox已经可以在H.264中像这样工作了 解决方案 它在IE和Edge中有效,但前提是有硬件支持.据报道,它还可
..
我正在开发h264视频编解码器.我想知道:H264中的单个NAL单元等于一个视频帧吗? 解决方案 否,可以将序列的NAL单元解码为视频帧,但不等同. http://en.wikipedia.org/wiki/H.264/MPEG-4_AVC http://en.wikipedia.org/wiki/Network_Abstraction_Layer#NAL_Units_in_B
..
我' ve用其他格式寻找现有的潜在解决方案,那些仍然会回答上述错误。 最后,记录了视频使用相同的设备,并将其用作此应用程序的资源,它仍然无法正常工作。 设备: SGS2 ,lenovo a820 视频类型: MPEG-4视频(视频/ mp4 ) videoView =(VideoView)findViewById(R.id.videoView); videoView.
..
我最近在Ubuntu 12.04中安装了OpenCV 2.4.2。 cap = VideoCapture(0) 正在工作。但是我无法从某些视频源中抓取帧。 cap = VideoCapture(“input.avi”) img = cap.read() 给我一个全部为零的元素。 我还安装了ffmpeg 0.11,x264,v4l-0
..
我有一个灰色的视频流从火线天文摄像机,我想使用FFmpeg来压缩视频流,但它不会接受单字节像素格式的MPEG1VIDEO编解码器。如何使用FFmpeg API将灰度视频帧转换为FFmpeg接受的帧格式? 解决方案 MPEG-1只接受YUV。所以将你的帧转换为yuv。使用SwsContext结构,通过调用sws_getContext创建它,然后使用sws_scale。 尝试rawv
..
也许任何人都知道这是否可能。 比较图像质量几乎是不可能描述没有主观影响。当有人把图像质量评价为好,至少有一个人,那不这么认为。 人类偏好总是不同的。 因此,我想知道是否有一个算法“比率”的图像质量, 颜色变化(像素差异) 模糊率 工件和宏块 第一个将是最简单的一个,因为你可以检查颜色的差异,并且可以给每个十六进制值 的+ - 中的3个值,最后一次我不知道这是否可能,但是
..
我有一个文件,其中只有H264帧那里NAL单元的形式。 所以,现在有没有什么方法,所以我可以指望该文件的时间? 我不知道有多少帧文件的存在。 我只有文件的大小。 PS:所有我想要做的是C语言和Linux平台。 解决方案 您的问题是毫无意义的,这就是投票为什么有人下来你。 容器文件 首先,有没有这样的事情 H264文件。可以有一个容器文件(MP4,AVI,MKV),它保存H264
..
我想创建一个应用程序或.apk文件可以在特定格式播放视频。 有关这个我已经编译了一个源文件,并采取目标文件, 从目标文件我已经生成一个共享库文件(的.so)使用命令 GCC -c -fPIC的hello.c -o hello.o GCC hello.o -shared -o libhello.so 有人可以请帮助我的步骤从Android的Eclipse或.so文件创建APK文件Andr
..
我编译的FFmpeg的Android的一个旧版本(如果我没有记错是0.6.X)。 FFmpeg的德codeS视频帧,扩展它,那么我使用OpenGL绘制在屏幕上。据我所知道的,问题是解码和缩放---他们不是硬件加速。 我的问题是: 是FFmpeg的硬件加速的ARM(安卓)处理器?最新版本 我要对这个错误的方式?即,是否有这样做的更好的办法?其中,“这个”正在播放的H264高清视频的视频动态壁
..
也许任何人都知道,如果这是可能的。 比较图像质量几乎IMPOSIBLE来形容毫不为主观影响。当有人得分的图像质量好,至少有一个人,那并不这么认为。 人类preferences总是不同的。 所以,我想知道是否有去“率”通过一种算法,比较原始图像的制作之一下列问题的图像质量。 颜色变化(由像素差值像素 模糊率 文物和宏块 第一个是最简单的一个,因为你可以在颜色检查只是diffeence,可以在+
..