video-capture相关内容
我需要从 Delphi 中的网络摄像头获取常规快照.速度不是问题(每秒一次就可以了).我已经尝试过基于 http://delphi.pjh2.de 的内容的演示代码,但我不能让它工作.它编译并运行正常,但回调函数永远不会触发. 我没有真正的网络摄像头,而是运行模拟器.模拟器可以工作(我可以使用 Skype 观看视频),但不能与测试应用程序一起使用.我真的不知道从哪里开始寻找... 有人
..
我正在开发一个应用程序,它可以使用 Service 从应用程序后台录制视频. 问题描述: 在我的应用程序中将安排录制.如果用户想在下午 1 点到 3 点录制视频,他将安排任务并可以退出应用程序.应用程序将在下午 1 点至下午 3 点自动开始录制. 我还做了什么: 我在谷歌上搜索了我的查询,但没有得到解决方案.很多文章都说不可能.但是在 Google Play 中有一些应用程
..
我有一个目录,里面有一个遵循模式 .png 的图像,其中 表示从第一张图像开始经过的毫秒数.input.txt 包含有趣图像的列表: 文件'0.png'文件'97.png'文件'178.png'文件'242.png'文件'296.png'文件'363.png'... 我正在使用 ffmpeg 将这些图像连接成视频: ffmpeg -r 15 -f concat -i input.txt ou
..
我最近在 Ubuntu 12.04 中安装了 OpenCV 2.4.2. cap = VideoCapture(0) 正在工作.但我无法从某些视频源抓取帧. cap = VideoCapture("input.avi")img = cap.read() 给我一个全零元素的numpy. 我也安装了ffmpeg 0.11,x264的最新快照,v4l-0.8.8(都是最新的稳定版本)
..
我只是创建简单的图表来从源过滤器录制视频: SourceFilter --->多路复用器 --->文件写入器 我可以将来自 SourceFilter 的视频保存到我的本地磁盘. 但是当我尝试播放录制的视频时,它以“慢动作"播放:-). 肯定有fps(每秒帧数)问题.我该如何解决?有什么想法吗? 附注: 要检查我的 SourceFilter 是否提供正确的 fps,我只需创建另一
..
使用opencv,如何将视频分割成图像序列? 我如何拆分它以便输出将是一系列图像? 解决方案 令我惊讶的是,我在 StackoverFlow 上找不到这个问题的答案. 我目前使用的是 OpenCV 2.1.这可能有点旧,但它就像一个魅力.该程序将读取一个输入文件并在名为 *frame_xx.jpg* 的当前文件夹上创建一系列图像 #include #include #includ
..
有没有办法使用 .NET 技术记录屏幕(桌面或窗口). 我的目标是免费的东西.我喜欢小巧、低 CPU 使用率和简单的想法,但如果他们创造出更好的最终产品,我会考虑其他选择. 简而言之,我知道如何在 C# 中截取屏幕截图,但如何将屏幕或屏幕区域记录为视频? 非常感谢您的想法和时间! 解决方案 不需要第三方 DLL.这个简单的方法将当前屏幕图像捕获到 .NET Bitmap
..
您是否有一些库可以将屏幕捕获为压缩视频文件或某些解决方案可以做到这一点? 解决方案 您最好的选择似乎是 Windows Media Encoder. 这里有一些链接: http://www.c-sharpcorner.com/UploadFile/armoghanasif/CaptureDesktopActivities11122005013755AM/CaptureDeskt
..
我正在寻找一个 Flash 脚本/库来从网络摄像头捕获视频和音频,然后以某种方式将保存的 flv 保存到我的编码服务器.我不是在寻找可以为我托管视频的东西.我只需要一些简单的东西来捕捉然后上传.我真的希望它是开源且免费的. 我进行了大量搜索,似乎我能找到的大部分内容要么是带有托管功能的完整服务,要么是红色 5 套件.我已经尝试了一天来使用 Red5 进行一些操作,但老实说,我已经 6 年多没
..
我应该为我的用户提供一种从我的 OpenGL 应用程序的主窗口捕获视频剪辑的非常简单的方法.我正在考虑添加用于启动和停止捕获的按钮和/或键盘快捷键;开始时,我可以要求提供文件名和其他选项(如果有).它必须在 Windows (XP/Vista) 中运行,但我也不想关闭迄今为止我能够保持打开的 Linux 门. 该应用程序使用 OpenGL 片段和着色器程序,这些效果是我在最终视频中绝对需要的
..
我正在研究半实时检测某些场景的图像处理问题.我的目标是让实时视频以我的 Java 代码中的 Motion JPEG 帧以某种方式到达. 我熟悉 Java 媒体框架,遗憾的是,我认为我们可以认为这是一个有效的死 API.我也熟悉轴盒,虽然我真的很喜欢他们的解决方案,但我很感激任何关于我的批评性反馈具体的兴趣点. 为了讨论的目的,我是这样定义“最佳"的: 延迟 - 如果我使用此视频流
..
我想用我的代码同时录制视频和抓取帧. 我使用 AVCaptureVideoDataOutput 抓取帧和 AVCaptureMovieFileOutput 进行视频录制.但是不能同时工作,但单独工作并得到错误代码-12780. 我搜索了这个问题,但没有得到答案.有没有人有同样的经历或者解释一下?这真的让我困扰了一段时间. 谢谢. 解决方案 我无法回答提出的具体问题,但我已
..
在 3D 模式下,如何从 hololens 相机访问视频流中的所有帧?我正在使用 C#. unity VideoCapture 类似乎没有提供:http://docs.unity3d.com/550/Documentation/ScriptReference/VR.WSA.WebCam.VideoCapture.html 和带有方法 MediaCapture.StartPreviewT
..
我在最后一帧出现断言失败错误,同时逐帧读取和写入视频.错误只显示在最后一帧,不知道为什么.看到这个答案here,建议给waitkey,我的代码已经有wait key 我的简单代码如下 int main(){CvCapture *capture=cvCaptureFromFile("C:\\vid\\op.mp4");如果(捕获==NULL){printf("无法打开视频");}垫框架,fi
..
代码: 与主网络摄像头(设备 0)完美配合的简单示例: VideoCapture cap(0);如果(!cap.isOpened()){std::cout
..
我刚刚用openCV2.3.1写了一个简单的视频阅读例子,但是好像无论如何都打不开avi视频:( VideoCapture capture("guitarplaying.avi");if(!capture.isOpened()){std::cout = 0)休息;}捕获.释放(); 我在std::cout
..
我正在做一个计算机视觉项目,我需要使用两个使用 opencv 库的摄像头.我尝试了此代码,但是使用来自 USB 端口的两个网络摄像头,如果我使用一个 USB 摄像头和我电脑的摄像头,它就无法工作. CvCapture* 捕获[2];捕获[0] = cvCreateCameraCapture(0);捕获[1] = cvCreateCameraCapture(1);if(!capture[0] &&
..
目标和问题 我想设置一个 opencv 系统来处理 HLS 流或 RMTP 流,但是,我遇到了一个关于降低的帧速率和累积延迟的奇怪问题.就好像视频离它应该在流中的位置越来越远. 我正在寻找一种方法来与实时源保持同步,即使这意味着丢帧. 目前的方法 导入 cv2帽 = cv2.VideoCapture()cap.open('https://videos3.earthcam.com
..
我正在尝试实现一个屏幕共享网络应用程序,该应用程序将使用 desktopCapture Chrome API 在网页上显示用户屏幕.我已经创建了 chrome 扩展并在后台运行了一个事件侦听器.我的问题是,当我尝试从网页向扩展程序发送消息(以获取 userMedia id)时,我在扩展程序端没有收到任何消息.我还试图将 getUserMedia id 返回到网页以显示提要.我附上了我所拥有的.谢谢
..
我使用的是 Python 2.7 和 OpenCV 2.4.9. 我需要捕获显示给用户的当前帧,并将其加载为 Python 中的 cv::Mat 对象. 你们知道递归的快速方法吗? 我需要类似于下面示例中所做的事情,它从网络摄像头中递归地捕获 Mat 帧: 导入 cv2帽 = cv2.VideoCapture(0)而(cap.isOpened()):ret, frame = c
..