ffmpeg相关内容
是否可以从visual studio 2010中的ffmpeg编译源代码?难吗? 如果可能,只要寻找一些建议(和说明)。 : - ) 干杯, Pete 解决方案 这是不可能的,因为ffmpeg广泛使用C99功能(有很好的理由),而MSVC不支持几乎足够的角落和标准的头饰。 但是,您可以使用MinGW构建的C库用于Visual Studio项目。请参阅以下链接,了解您
..
我需要一个库来执行基本功能,例如视频文件的长度,大小等(我通过元数据或标签猜测),所以我选择了 ffmpeg 。有效的视频格式主要是在电影文件中流行的视频格式, wmv,wmvhd,avi,mpeg,mpeg-4 等。如果可以,请帮助我使用方法来了解视频文件的持续时间。我在Linux平台上。 解决方案 libavcodec很难编程,也很难找到文档,所以我感受到你的痛苦。 本教程是一个好的开
..
我一直在试图写一个类,从Live555中的FramedSource派生,这将允许我流实时数据从我的D3D9应用程序到MP4或类似的。 我做的每个帧是抓取backbuffer到系统内存作为纹理,然后将其转换从RGB - > YUV420P,然后使用x264编码,然后理想情况下传递NAL数据包到Live555。我做了一个类叫H264FramedSource从FramedSource派生基本上通过
..
我使用的视频编解码器是mpeg4,我想使用PCM_16LE对于音频编解码器,但我面临有关音频样本的 AVCodec-> frame_size 参数的问题。 完成所有正确的分配,我尝试分配音频帧和AV_CODEC_ID_PCM_S16LE编解码器我没有编解码器frame_size需要获得样本缓冲区大小。因此,示例缓冲区大小巨大,我根本不能分配这么多的内存。 有人知道如何绕过这个问题,以及如何
..
我有两个相同的相机连接到我的电脑。相机是视频21K355usb(如果有人需要这个信息)。我使用Libav或ffmpeg(测试与两个libs)抓住相机。我的选项在我的c + +程序是简单的: format =“dshow” input =“video = Videology USB- C相机“ 但我无法区分它们。如果我尝试打印设备列表,我得到以下: $> ffmp
..
我试图使用libswscale将YUV帧转换为RGB。 这是我的代码: AVFrame * RGBFrame; SwsContext * ConversionContext; ConversionContext = sws_getCachedContext(NULL,FrameWidth,FrameHeight,AV_PIX_FMT_YUV420P,FrameWidth,
..
当我解码来自avi文件的帧,然后解码它们在x264和保存到mp4文件,输出文件的fps总是12,800。因此,文件播放非常快。但是,当我保存编码的h264帧在avi格式而不是mp4,所以fps是我想要的 - 25。 这可能是什么问题? p> 这里是我在VS2010中写的代码: #include“stdafx。 h“ #include”inttypes.h“ extern
..
我得到帧的循环和解码它与ffmpeg获得AVFrame作为其结果。 所以我必须获取帧的必要的像素数据到char *作为回调函数的参数。那么我怎么能generete这样的char *数组?在互联网我看到一些例子,如: for(y = 0; y data [0] + y * pFrame-> linesize [0],1
..
我想将 YUV420P 图像(从 H.264 流中接收)转换为 RGB ,同时也使用 sws_scale 调整大小。 原始图像的大小为 480×800 。 但是当我尝试更改尺寸时,我得到一个失真的图像,具有以下模式: 更改为 481×800 会产生一个扭曲的B& W图像,看起来像是在中间切割 c> 482×800 会更加扭曲 现在这个模式如下 - 缩放只有在除以4之间的差
..
我想从视频中提取帧..我选择ffmpeg(告诉我,如果你知道更好的东西)为这个任务 i下载它的源..我不知道如何使用它?我怎么编译它? 什么是推荐的语言呢?我知道python和C ++ 请注意我使用的是windows vista 64x。 解决方案 从视频中提取帧并将它们保存到文件,您只需在命令行中使用ffmpeg: ffmpeg -i video.avi ima
..
我试图找出一种方法来获取我在FFMEG中创建的编码的H264图像,并使用FFMPEG通过RTSP发送它,是否有一些示例代码或教程,显示如何做到这一点。我试过在网上搜索,但没有什么,我可以找到那里。 任何帮助是非常感激。提前感谢。 解决方案 我在docs / examples / muxing.c中做了一些更改,这里是我的代码,传输音频和视频使用mpeg4 rtsp的流 #in
..
我试图让av_seek_frame()函数去到我指定的字节位置。我为我的应用程序实现帧精确寻找机制,并且我的方式,我将扫描整个视频文件,并存储每个关键帧在一个结构中的字节位置。我发现在哪里得到当前字节位置:AVPacket.pos。我现在用 av_seek_frame 测试这个位置: av_seek_frame(pFormatCtx ,videoStream,110285594,AVSEE
..
我需要从专有网络协议(我已经知道如何做)解析视频流(mpeg ts),然后我想使用OpenCV处理视频流到帧。我知道如何使用cv :: VideoCapture从文件或标准URL,但我想设置OpenCV从内存中的缓冲区,我可以存储视频流数据,直到它需要读取。有一种方法来设置回调方法(或任何其他interfrace),使我仍然可以使用cv :: VideoCapture对象?有没有更好的方法来完成处
..
正如标题所示,我一直在试图让ffmpeg / libav库在MSVC ++ 2010中工作。 然而,我在调试模式下编码时仍然在运行下面的错误。 代码: extern“C” { #ifndef __STDC_CONSTANT_MACROS #define __STDC_CONSTANT_MACROS #endif #include
..
我收到一个h264流,我至少知道一个帧的大小。流进来了,因为我可以将它存储在一个文件,并与vlc播放。播放文件对我来说没有问题,因为我包括libavformat。但libavformat给了我一个AVPacket,我可以直接给avcodec_decode_video2。在这种情况下,我得到一个字节。如何将原始h264流给avcodec_decode_video2?如何将我的数据包装到AVPacke
..
我有一个程序从网络摄像头捕获视频,用ffmpeg编码,编码包然后写入缓冲区。在接收方,从缓冲区读取ffmpeg和解码。 现在我将发送方和接收方合并在一个程序中进行测试。它适用于AV_CODEC_ID_MPEG1VIDEO,但是当我将ffmpeg编解码器更改为AV_CODEC_ID_H264时,在解码进度,它显示错误: 整个程序在这里FYI,我做了一个循环,让整个进度运行两次。 错
..
我在尝试重新安装我的ffmpeg,请按照此指南,在我的ARM Ubuntu机。 Unfortunatley,当我编译使用这个lib的程序时,我得到以下失败: / usr / ld:/usr/local/lib/libavcodec.a(amrnbdec.o):在创建共享对象时不能使用针对“本地符号”的重定位R_ARM_MOVW_ABS_NC;重新编译-fPIC /usr/local/
..
我在Windows下使用openCV 1.1pre1。 我有一个网络摄像头,我需要从openCV抓帧。该摄像机可以通过RTSP或mjpeg通过http流式传输标准mpeg4流。 我看过很多关于使用openCV使用ffmpeg的线程,但是我不能使它工作。 我如何使用openCV从网络摄像机抓取帧? 感谢 Andrea 解决方案 rtsp协议对我没有工作。 mjpeg第
..
我写了一个视频发生器权利H264格式(MP4)视频。当我从流蔚蓝我服务的视频,我看到下面的网络流量: 的 我使用的AVCodecContext布局如下: avcodec中*视频编解码器=的ffmpeg .avcodec_find_encoder(AVCodecID.AV_CODEC_ID_H264) AVCodecContext * videoCodecContext = f
..
我试图写在ffmpeg的C#.NET自定义包装。我下载了多个版本,但它似乎像我将不得不使用一个与.exe文件。 ffmpeg.exe ffplay.exe ffprobe.exe 不过,我不能通过将添加参考引用这些可执行文件 - >浏览等。 那么,我想现在要做的仅仅是将其添加为一个文件。然后,就像你使用命令行运行这些命令。 这可能吗?或者,也许
..