ffmpeg相关内容
我怎样才能从IP摄像机,它使用RTP,流是MPEG4得到流,我有组播地址和端口,和我有网络摄像机的IP地址和端口号。结果,我不能forexample(HTTP:// IP / JPEG)通过http达到,我不能用VLC播放器到达流过。 forexample(RTP:// ipadressofcam:端口)和( RTP:// multicastaddress:端口)结果 那么,什么是那ffmpeg
..
我使用Visual C#2008,想从写序列BMP AVI文件。 我发现AForge.Video.VWF但它只是为“vmw3”或“DIB “编解码器,我想用AForge.Video.FFMPEG但它得到误差 例如我刚代码: 使用系统; 使用System.Collections.Generic; 使用System.Linq的; 使用System.Text; 使用AFor
..
我试图在C#程序中使用的ffmpeg(编译在Windows上使用Cygwin的),通过使用过程类产卵的ffmpeg的实例。不过,我已经打了一个相当奇怪的错误,并没有多大意义。 当我直接从shell中运行的ffmpeg(无论是Cygwin的bash中,PowerShell中,CMD ),ffmpeg的可正确地解码和重新编码文件,没有任何问题: PS C:\audio> ffmpe
..
我想与支持mp3和ffmpeg的编解码器的CEF库。我怎样才能重新编译的CEF的库里面这些编解码器的功能。 我想学习,我应该在哪里编辑CEF库或cefsharp里面呢? ,那么如何才能编译再使用它.. 我使用cefsharp 47版 解决方案 注意:请考虑法律问题在继续 有一种方法可以使MP3支持。CEF,但你必须修改源发行的cef.gypi,重新生成Visual St
..
我试着发送大量桌面捕捉图像的编码器(FFmpeg的)标准输入。 下面的代码示例工作。 的 CaptureScreen()函数在5-10毫秒提供的图像。 如果我将图像保存在一个MemoryStream它几乎不需要花时间。 但我只能节省1每隔45毫秒至 proc.StandardInput.BaseStream形象。 公共无效启动(字符串比特率,字符串缓冲区,字符串F
..
我使用的FFmpeg的应用程序,它开始和录制视频完美 ,但是当我想阻止它要求按“Q”,我得到了System.EntryPointNotFoundException的错误消息。 我怎么能发送短信“q”来处理这是在运行从应用程序的状态 INT key_q = 81; 函数[DllImport(“user32.dll中”,入口点=“PostMessage的”)] 私人静态的ext
..
我要寻找一种有效的方式来做到以下几点: 使用多个来源的视频(的长度大致相同),我需要生成一个输出视频的由所有的在自己的区域内的每个运行(如一堆 PIP ■在最初来源几种不同的尺寸)。所以,最终的结果是,所有的原运行侧由端中,每个在其自己的区域/盒 源和输出需要 FLV 和我使用的平台是Windows(在Windows 7 64位开发,部署到Windows Server 2008)。
..
我从我的应用程序图像序列生成视频的任务,并同时寻找,我发现,FFMPEG能够做到that.Can任何人提供我任何教程或链接,可以指导我在正确的方向。我在这一个newbiew所以请适当地帮助球员。 将欣赏任何形式的帮助。 解决方案 的 http://electron.mit.edu/~gsteele/ffmpeg/ 结果 的 http://www.codeproject.com/Arti
..
我希望能够使用FFmpeg的一个视频文件从我的C#程序中进行转换。我知道我可以调用一个shell命令的,但有没有更好的办法?的 通过外壳调用命令的问题,是我不知道,你可以做这样的事情的进度条,等...或者可以这样呢? 如果没有办法,任何人都可以建议最好方式布局执行shell命令的一些框架。路过一个大的长字符串是很繁琐的ATM。 解决方案 您可以轻松如果运行的ffmpeg实现一个
..
我需要在时间code将视频刻录,我想知道,如果这是FFmpeg的有能力的东西吗? 解决方案 简短的回答,没有。 长一点的回答,是的,但如果不使用一个单独的库来创建它们所呈现的时间code中的帧,透明填充框架的其余部分,然后用FFmpeg的重叠在现有的视频帧。关闭我的头顶,我不知道如何做到这一点,但我敢肯定,如果你是有创意,你自己看着办吧。 编辑:我已经在这个问题上的工作,因为这对我来说
..
我无法找到如何获得一个文件的视频长度编程一个简单的例子。很多人说,哦,使用这个库/包装或什么的,但不要说怎么样。我已经下载的ffmpeg,但不知道如何实际使用它,似乎没有要如何使用它来获取视频的持续时间的任何实例。我看你如何使用它来转换视频,但我只是只是想知道视频的持续时间。所有的其他信息也没关系。 是否有这样做简单,无论是在C#,Python和Java的,不管,这将只返回一个字符串,指示视频文
..
许多人一样似乎已经有(有多个线程对这个问题在这里)我在想办法从图像序列创建的视频。 我想要实现在C#我的功能! 下面是我wan't做的: / *伪code * / 无效CreateVideo(列表<图像> imageSequence,长durationOfEachImageMs,串outputVideoFileName,串OUTPUTFORMAT) { //信息:ima
..
是否有人有一个已知可靠的方法来从一系列图像文件的视频?你国防部我失望张贴问题之前,不寻找答案,你火了像一个简单的消息之前“使用FFMPEG,”读此消息的其余部分之前。 我试图创建一个视频,它并没有太大的关系是什么,只要它的广泛的支持,从一系列图像(.JPG,.BMP等)的格式。我的平台是Windows Server 2008中,64位。如果我可以从我的C#程序中作出的视频,这是伟大的,但我不反对
..
我使用的ffmpeg在iPhone上阅读从MMS服务器的WMA流,但我想流保存到使用EN ALAC在ffmpeg的codeR M4A档案,问题是,试图拯救原始数据流,数据流通过AV codec_de code_audio2处理,文件甚至没有与WMA格式的认可,显然,没有打过,所以流之前转换为M4A(使用AV codec_en code_audio)我要肯定的是,流正在处理和正确保存。人有exper
..
我正在开发Android应用程序。我的要求是,要实现一个RTSP Android上的流媒体服务器。它住用 MediaRecorder 流视频和音频捕获。另一个要求是,我必须使用LIVE555作为流媒体服务器。我从 MediaRecorder 得到的是在MP4或3GP格式。 LIVE555能不能既流。但是,如果我只是在'RAW_AMR'格式记录它,它可以流音频。由于流媒体支持LIVE555“英里”的
..
更新从14.04我的Ubuntu操作系统16.04后,我用下面的配置安装的ffmpeg库: PATH =“$ HOME /斌:$ PATH”PKG_CONFIG_PATH =“$ HOME / ffmpeg_build / lib目录/ pkgconfig”的./configure \\ - preFIX =“$ HOME / ffmpeg_build”\\ --pkg-配置-标志
..
我想使用的ffmpeg / libavfilter / lavfutils.h定义的函数“ff_load_image”。 program.c 的#include“../ffmpeg/libavfilter/lavfutils.h”诠释的main() { uint8_t有*的数据; INT LINESIZE,宽度,高度,log_ctx; INT I = ff_load_image(安培;
..
我想转换成MP4文件使用到MPEGTS libav 。的code工作,但输出不能由任何播放机上播放的文件。 下面是输入文件(这只是视频,无音频) 这里是code我到目前为止有: 转换为int(为const char *的输入,为const char *输出) { AVFormatContext * inputContext = NULL; AVFormatContext * outputCo
..
所以,我下载的FFmpeg从SVN。编译并安装到系统中。在/ usr /地方它创造./lib和./include。一个用包括一在的* .a文件的形式库。 我下载的是Eclipse赫利俄斯的C ++和创造了新的简单的项目。我包括ffmpeg的头在我的C ++文件。在设置中的C / C ++编译项目属性我宣布的ffmpeg库(库搜索路径被宣布) 我写了一些简单的code,从头调用函数。 但我
..
我试图编译一个项目,我对使用的ffmpeg库工作。该项目是用C写的头文件适当地包括在源$ C $ C。特别是,它似乎是使用 libav codeC 和了libavformat ,和这些库适当地链接Makefile中的LDFLAGS。下面是使用的标志: -lav codeC -lavformat -lswscale -lavutil 现在,因为Ubuntu配有包装的图书馆是太出过期,我下
..