video-capture相关内容
我使用Python(2.7)软件包VideoCapture。当我尝试实例化设备时,出现异常: 错误:无法创建捕获图。 我使用 cam = Device(),所以这里没有什么特别的。我有一台笔记本电脑可以正常工作,而另一台笔记本电脑可以得到例外。它们是不同的,但是都具有内部USB网络摄像头。 一个星期前它起作用了,但现在我只得到了例外。两者都使用Windows 7。 是否有人
..
我在WPF中创建了一个我喜欢的效果,希望能够“录制”该效果。 有没有一种方法可以将其转换为逐帧过程,并自己保存为视频,而无需尝试在播放过程中记录它? 基本上我想将WPF渲染为视频,或列出一系列保存为位图的帧。 关键是要能够录制动画而没有断断续续。 解决方案 有你看过使用 RenderTargetBitmap 将Visual呈现为位图吗? 您可能必须使用动画的时间安排或加
..
我有录制会议的链接,如何从会议中导出视频? 解决方案 登录到您的Adobe Connect帐户 单击会议> 我的会议 单击记录的链接 单击“ 记录”链接(在屏幕的右侧) 单击链接在“ 名称”列中 复制“ 要查看的URL ” –示例, http://mycompany.adobeconnect.com/p12345678/ 将其粘贴到新的浏览器标签中,然后在URL的末尾添加以
..
我想创建多个VideoCapture对象,以便将多台摄像机的视频拼接到一个视频混搭中. 例如:我具有要使用下面显示的“视频捕获"对象读取的三个视频的路径,以从各个视频中获取帧,以便将其用于写作. 预期:用于N个视频路径 cap0=cv2.VideoCapture(path1) cap1=cv2.VideoCapture(path2) cap2=cv2.Video
..
我正在尝试使用Java中的opencv 3.0从vcam取得视频流. 如果我使用以下代码查找网络摄像头,一切正常: VideoCapture camera = new VideoCapture(0); 但是使用RTSP流时出现错误. 我发现它应该可以像这样获得RTSP流: VideoCapture camera = new VideoCapture("rtsp://test:tes
..
我只是试图从通过CV2 VideoCapture读取的帧中检测和识别面部.对于检测,使用Tensorflow实现的人脸检测/对齐算法位于 https://github.com/kpzhang93/MTCNN_face_detection_alignment .内置网络摄像头和通过USB连接的外部摄像头,MTCNN人脸检测过程没有延迟.但是,当它来自IP摄像机时,与检测算法相比就存在很大的滞后.与内
..
我正在尝试使用wx按钮保存网络摄像头视频. 这是我的代码 def OnRecord(self, evt): capture = cv2.VideoCapture(0) if (not capture.isOpened()): print "Error" # video recorder fourcc = cv2.cv.CV_FOURCC('D'
..
我使用带有Python3和SBC OXU4的OpenCV 3.2.我有一个连接到SBC的真实5MPx网络摄像机.我想从这款相机拍摄2592x1944分辨率的照片.如果我使用奶酪,则可以以此分辨率拍照.我可以使用命令行程序streamer -t 4 -r 4 -s 2592x1944 -o b0.jpeg保存图片,但是当我使用OpenCV3.2拍照时,如下所示: #!/usr/bin/env
..
我使用python 2.7和openCV 2.3.1(win 7). 我尝试打开视频文件: stream = cv.VideoCapture("test1.avi") if stream.isOpened() == False: print "Cannot open input video!" exit() 但是我有警告: warning: Error opening file (
..
我正在使用OpenCV4和python 3来打开摄像头,抓取帧并将其显示在窗口中,就像提供的第一个代码教程 在抓帧时是否有一种强制固定时间的方式,以便我可以看到视频而不会出现延迟?我认为OpenCV会发生这种情况,因为当我使用默认的Windows摄像头查看器进行查看时视频正常显示. 我已经尝试过的是使用time.sleep()等待一段时间,然后再次抓取帧.但这无济于事. import
..
我在Raspberry Pi上的OpenCV 3.4.2中捕获并处理IP摄像机RTSP流.不幸的是,处理过程要花费很多时间,每帧大约需要0.2s,并且流很快就延迟了. 我不介意是否跳过某些帧,因此我正在寻找一种方法来捕获和处理下一帧之前寻找流的结尾. vcap = cv2.VideoCapture("rtsp://{IPcam}/12") while(1): ret, fra
..
我正在通过HTTP从相机读取图像.这是代码: Mat src; VideoCapture cap(); cap.open("http://192.168.1.10:8008"); // IP camera while(1) { cap.read(src); // Other code } 它工作正常,但是运行了一段时间后,如果我断开了相机的连接,则代码将永久挂在cap.
..
我正在寻找一种将视频(包括音频)记录到RAM中存储的循环缓冲区中的简便方法. 所以我可以保留视频记录,它将在最近2分钟内将提要保留在RAM中,然后根据需要选择将其提交到内存中. 不幸的是,我看不到一种简单的方法来做到这一点.到目前为止,我已经使用以下方法进行了调查: MediaRecorder-我看不到将输出数据存储在 缓冲.唯一的选择是setOutputFile() Ja
..
我从2个单独的摄像机获取视频输入,输出视频之间存在一定的重叠区域.我已经尝试了将水平输出的视频组合在一起的代码.这是该代码的链接: https://github.com/rajatsaxena/NeuroscienceLab/blob /master/positiontracking/combinevid.py 以可视方式解释该问题: 红色部分表示两个图像帧之间的重叠区域.我需要
..
我有两个任务(线程),每个任务运行在不同的处理器(核心)上,第一个任务使用OpenCV videocapture()重复捕获图像. 我仅将这两行用于捕获: cv::Mat frame; capture.read(frame); 现在,我想使用第二个任务显示捕获的图像.在第二个任务的代码中执行imshow函数后: cv::imshow("Display window", fra
..
具有AVI视频文件和网络摄像头.在两种情况下,cvQueryFrame返回null.应用代码(仅适用于凸轮): #include "highgui.h" #include using namespace std; int main( int argc, char** argv ) { cvNamedWindow( "KillCam", CV_WINDO
..
我正在尝试开发用作自拍相机的代码.视频将显示在窗口中,并且将连续检测人的脸和眼睛,并且一旦用户选择了特定时间,就会捕获该时间点的帧.我可以使用时间模块中的睡眠功能在一定时间后捕获帧,但是视频帧似乎死机了.有什么解决方法可以让我继续观看视频,并且经过一段时间的延迟后会自动进行视频捕获. 我正在使用代码- import numpy as np import cv2 import time
..
我在Mac上,并使用 brew 安装opencv3.我正在使用opencv3/3.0.0.今天,我对其进行了更新,并获得了版本3.1.0_1. 但是,此更新中断了所有操作,当我尝试使用VideoCapture读取帧并使用waitKey函数时,它会由于以下原因而中断: 2016-02-26 23:25:16.846 tracking [99869:1026824] ***由于未捕获的异常
..
按照教程中的说明,我尝试播放文件中的视频.我的程序如下: import numpy as np import cv2 cap = cv2.VideoCapture('output.avi') while(cap.isOpened()): ret, frame = cap.read() frame = cv2.cvtColor(frame, cv2.COLOR_BGR2GR
..
我有以下代码,该代码通过在python的opencv中使用VideoCapture库连续从视频中获取所有帧: import cv2 def frame_capture: cap = cv2.VideoCapture("video.mp4") while not cap.isOpened(): cap = cv2.VideoCa
..