mjpeg相关内容
Mencoder有一个可爱的选择,用于将mjpeg文件转换为使用VLC播放的“MJPG”编解码器的avi文件。 执行此操作的命令行为: mencoder filename.mjpeg -oac copy -ovc copy -o outputfile.avi -speed 0.3 其中0.3是所需播放帧率与默认25 fps的比例。所有这些都是制作mjpeg文件的副本,将avi标题
..
我正在分析一些我手头存在的问题的解决方案:我正在从设备接收图像,我需要从中创建一个视频文件。然而,图像到达之间有一些随机的延迟,我正在寻找最好的方法来编码这个。我必须逐帧创建这个视频,并且在每一帧之后,我必须有一个新的视频文件与新的帧,替换旧的视频文件。 我在想将帧速率固定在比我可能得到的最小延迟稍微“更快”,并重复最后一帧,直到新的帧到达,但我猜这个解决方案不是最优的。 此外,这个项
..
来源“http://192.168.1.67:5555”的图片已被跨源资源共享政策阻止加载:响应无效。因此,不允许访问原始“http://127.0.0.1:8000”。 我需要允许此MJPEG流的交叉因为用户必须能够使用按钮捕获图像,并且没有CORS画布被污染。 我在FF和Chrome中遇到这个问题不同的视频源,因为它不支持MJPEG)。 我的服务器还返回 Access-Con
..
我有以下HTML网页: 此网页显示流式MJPEG数据的IP摄像机的源。您可以在此尝试上述代码: http://jsfiddle.net/jU4aq/ (它不工作来自IE)
..
..
我试图将一个m JPG视频的直播视频写入html画布。 以下内容: http://camelive.info/ 有一个包含mjpeg视频的公开网络摄像头列表,但他们似乎正在写
..
我从第三方网站加载动画jpeg,我可以信任。我试图 getImageData()但浏览器(Chrome 23.0)抱怨: 无法从画布中获取图像数据,因为画布已被污染的 跨原点数据。 在SO上有一些类似的问题,但他们使用本地文件,媒体。 我尝试了 img.crossOrigin ='Anonymous'或 img.crossOrigin =''(请参阅此帖子在Ch
..
我有一个问题让OpenCV 2.4捕获来自Raspberry Pi的MJPEG流,我已经在浏览器中检查流URL,它似乎工作正常,但是当我尝试在OpenCV中打开它似乎 cv :: VideoCapture(在终端上没有错误或成功消息) vcap; cv :: Mat raw_image; const string videoStreamAddress =“http://192.
..
我有一个问题让OpenCV 2.4捕获来自Raspberry Pi的MJPEG流,我已经在浏览器中检查流URL,它似乎工作正常,但是当我尝试在OpenCV中打开它似乎 cv :: VideoCapture(在终端上没有错误或成功消息) vcap; cv :: Mat raw_image; const string videoStreamAddress =“http://192.
..
我需要访问和读取从网络摄像机发送实时MJPEG镜头的http流,以便对图像进行一些opencv图像处理。 我可以通过VLC访问摄像机的镜头,或者只需转到chrome或firefox中的网址。但是当服务器只是发送一个连续的feed时,如何以编程方式访问http服务器和分离每一帧呢? 数据似乎格式简单, HTTP头和JPEG数据。我可以想到的接近这种方式的唯一方法是以某种方式向服务器发
..
我创建了一个(非常基本的) MJPG 服务器在浏览器上显示网络摄像头数据。 这是我的代码: TcpServer :: TcpServer(QObject * parent): QObject(parent) { server = new QTcpServer(this); //每当用户连接,它将发出信号 connect(server,SIGNAL(newConnectio
..
我想创建一个Http服务器来发送MJPEG流。我已经能够发送图片,但没有实时流。 我做了什么:创建了一个TCP服务器。当客户端连接TCP-Socket时创建。然后我实现了一个ReadyRead SLOT,当浏览器发送“GET”请求到服务器时,它执行。 GET / HTTP / 1.1 Host:127.0.0.1:8889 User-Agent:Mozilla / 5.0 .
..
我想从IP摄像机接收JPEG图像(通过RTSP)。为此,我在OpenCV中尝试了 cvCreateFileCapture_FFMPEG 。但ffmpeg似乎有一些问题与流的MJPEG格式(因为它自动尝试检测流信息),我结束了以下错误 mjpeg:不支持的编码类型 然后,我决定使用live555流。到目前为止,我可以通过openRTSP成功建立流和捕获(非解码)图像。
..
我工作的一个简单的程序,从远程IP摄像机抓取的图像。经过研究日子里,我是能够提取的 JPEG 从 MJPEG 实时流与我有示例代码。 图像 我做了一个原型使用Windows窗体。随着Windows窗体,我得到妥善80图片来自网络摄影机每10秒。 现在我移植的代码的 Unity3D 和我得到2帧每10秒。 所以基本上约 78 图像的没有收到。 上的东西看起来像中世纪的Power
..
我产生一个MJPEG流,并试图将其传输到VLC和发挥它有 中的代码: 公共无效SendMultiPartData(字符串的contentType,Func键<字节[]>的getData) { MemoryStream的纪念品= NULL; response.StatusCode = 200; 为(字节[]缓冲区=的getData();缓冲= NULL&放大器;!&
..
我需要从DeckLink卡到浏览器实时流。我还必须能够与一个非常贫困的网络链路(128kbits / s的...)这样做,所以我需要能够在一个非常低的FPS流(1 FPS是罚款)和非常低的图像质量。 目前我使用的GStreamer获得从卡的视频,反式code它MJPEG,以及TCP流吧。这部分是完美的工作,但现在我要管这个TCP流与HTTP流。 我可以VLC做到这一点,它在“正常的”帧率效果很
..
根据 paparazzo.js lib中,我试图从MJPEG得到的base64图片流(流过在GStreamer TCP)在Node.js的服务器上,并通过WebSockets向它们发送到客户端。 我想我是pretty接近,但我的图片已损坏。这里是code我使用的是: VAR边界=“---- videoboundary” VAR数据=“”;VAR TCPSERVER = net.createS
..
我有我需要显示从安全摄像头的视频饲料的ASP.NET应用程序。视频源为“多部分/内容类型的X - 混合取代;边界= - myboundary'与边界之间的图像数据。我需要传递数据的流过我的网页服务,以使客户端插件,我可以只是因为它会如果我直接浏览到摄像机的Web界面消费流。 下面code不工作: //获取响应数据 字节[]数据= HtmlParser.GetByteArrayFromStre
..
我已经创建了该客户端可以查看IP摄像头,是给应用 MJPEG使用此链接的HTTP实时流 的Android ICS和MJPEG使用AsyncTask的 现在我希望用户录制视频到其存储卡。 我用Google搜索了一会儿,里面传来在我的脑海里只有两种方法: - 任我保持存储JPEG图像,当用户单击停止录制,然后我 不知何故剪辑的所有图像,以提供一个3GP视频或一些其它的文件格式。
..
我开发需要通过MJPEG得到一个Airdrone流的应用程序。 我使用的是类从这个话题。它的伟大工程的例子,但我需要加入一些其他元素,同样的看法,如按钮来控制德airdrome。 这个例子code: @覆盖 公共无效的onCreate(捆绑savedInstanceState){ super.onCreate(savedInstanceState); ... MV
..