v4l2相关内容
我正在通过USB Terratec Grabster AV350(基于em2860芯片)捕获视频. 播放音频时,我没有成功获得音频.如果我用vlc或ffplay播放捕获的视频,我只会听到3秒钟的声音,然后其余视频保持沉默... 在捕获过程中,我没有任何错误.最后指示所捕获的视频和音频的大小.... 我正在使用ffmpeg命令: ffmpeg -f alsa -ac 2 -i
..
我正在用v4l2禁用vlc录制某些东西(以防万一),我只是选择了第一种有效的格式,即使用TS容器的mpeg2.文件的扩展名为.ts,由vlc自动选择.然后,当我尝试将视频文件放入我的视频编辑器中时,它说视频长19884小时,大约应该是6分钟(大小约为80mb).当我尝试在xine中播放时,它会正确显示持续时间(vlc不会),以及当我使用ffprobe时: [mpegts @ 0x9b2c0a
..
我正在尝试从Linux(ubuntu 14.04)中的多个麦克风读取数据。我有一个特定的约束,那就是应该通过轮询来读取麦克风(因此,尽管数据是高频的,所以不要等到有数据时才等待)。我想知道在Linux中是否可行?不幸的是,音频捕获不是我的专长,我想知道使用Alsa的选择是否合适。为了更好地理解问题,这里有一个我想到的伪代码: open_the_audio_device(); set_t
..
在一个本地电话中,我尝试进入open("/dev/video4", O_RDWR),但出现errno EACCES 13“权限被拒绝". 如果我在同一Android主机上的可执行文件中运行相同的代码*,与我在上面运行的已安装应用程序的相同UID一样,则可以正常运行. (*较小的差异,例如main()而不是Java_com_test_testOpen()) 我已经尝试过chmod 666
..
我使用带有Python3和SBC OXU4的OpenCV 3.2.我有一个连接到SBC的真实5MPx网络摄像机.我想从这款相机拍摄2592x1944分辨率的照片.如果我使用奶酪,则可以以此分辨率拍照.我可以使用命令行程序streamer -t 4 -r 4 -s 2592x1944 -o b0.jpeg保存图片,但是当我使用OpenCV3.2拍照时,如下所示: #!/usr/bin/env
..
我想知道是否可以使用"opencv"在v4l2设备上进行写操作. 我会拍照,使用opencv的功能进行一些小的更改,然后将其发送到v4l2设备上. 我在网上搜索过,但是有很多关于如何从V4L2设备读取信息的示例,但是我对在v4l2上进行书写一无所知. 有人可以帮助我吗? 解决方案 这个问题已有8个月了,但是如果您仍然需要答案(我想您的操作系统是Linux): 安装 v4l
..
我在64位Ubuntu 12.04上使用OpenCV 2.4.5.我希望能够设置Logitech C310网络摄像头的输入分辨率.相机在30fps时支持高达1280x960,并且我可以在guvcview中以这种分辨率观看视频.但是OpenCV始终只能以640x480的分辨率获得视频. 尝试在创建VideoCapture上限后立即更改cap.set(CV_CAP_PROP_FRAME_WIDT
..
我有这段代码试图从树莓派上的网络摄像头捕获一个帧,并将其另存为图像.我使用的是opencv 2,但是在运行代码时出现奇怪的错误. import time import sys from subprocess import call import cv2 cam = cv2.VideoCapture() while True: cam.open(-1) im
..
我正在尝试在Ubuntu 11.10上使用OpenCV 2.1同时从3个Logitech Webcam Pro 900设备流式传输图像. uvcvideo驱动程序已为此加载. 捕获两个设备可以正常工作,但是对于三个设备,我遇到了第三个设备的空间不足错误: libv4l2: error turning on stream: No space left on device 我似乎遇到了
..
我想使用gstreamer通过UDP多播流式传输摄像机数据. 为此,我在管道下面使用了 gst-launch-1.0 v4l2src ! videoconvert ! video/x-raw,width=720,height=576,framerate=25/1 ! x264enc ! mpegtsmux ! rtpmp2tpay ! udpsink host=224.1.1.1 po
..
我正在linux(ubuntu 12.04)上通过python使用openCV,我有一个logitech c920,我想从中获取图像. Cheese可以抓取高达真正高分辨率的帧,但是每当我尝试使用openCV时,我只会得到640x480的图像.我已经尝试过: import cv cam = cv.CaptureFromCAM(-1) cv.SetCaptureProperty(cam,cv.
..
我当前正在尝试运行2个网络摄像头在Wandboard板上,必须共享一个USB集线器.问题是,当前的驱动程序实现(仅YUV)使USB集线器饱和,最终我只能连接一台摄像机. 但是,对于这种情况这种情况,UVC驱动程序实现有一个怪癖,并且其他. 问题是,我没有找到有关如何加载这些怪癖的任何文档. 你能帮我吗? 解决方案 您可以通过传递一些参数来更改许多内核模块的行为. 您可以使
..
我正在使用Raspberrypi中的CImg库进行基于实时图像处理的项目。 我需要以更高的帧速率捕获图像(比如至少30个) fps),当我使用内置的Raspicam命令时,例如 sudo raspistill -o -img_%d.jpg -tl 5 - t 1000 -a 512 / * -tl:时间间隔持续时间,单位为msec -t :总持续时间(100
..
阅读了任何图像数字化的原始图像格式的维基百科页面。 要查看或打印,摄像机图像传感器的输出将 处理,即转换为拍摄 的场景,然后以标准的光栅图形格式存储,如 JPEG。这种处理,无论是在相机内还是在原始文件 转换器中完成,都涉及到一些操作,通常包括 我有一些从我的Logitech c920抓取的.raw文件,使用 v4l2示例,但是当我显示图像时,它看起来像这样: 一个原始的图像
..
当我尝试使用Python重新打开opencv的CameraCapture时,我得到: libv4l2:错误设置pixformat:设备或资源繁忙 HIGHGUI错误:libv4l无法ioctl S_FMT libv4l2:错误设置pixformat:设备或资源繁忙 libv4l1:错误设置pixformat:设备或资源繁忙 HIGHGUI错误:libv4l无法ioctl VI
..
我写了一个应用程序从网络摄像头读取,并使用OpenCV在Linux上处理帧。现在我想把我的应用程序的输出管道到由V4L2loopback模块创建的虚拟网络摄像头,以便其他应用程序能够读取它。我使用C编写应用程序。我不知道如何做到这一点。 解决方案 我在Google代码的旧版V4L2loopback模块页面中找到了一个答案。 p> http:// code.google.com/p/v
..
在阅读 RAW图像格式的维基百科页面这是任何图像的数字负片。 要查看或打印,从相机图像传感器的输出具有 进行处理,即,转换成的照相渲染 场景,然后存储在一个标准光栅图形格式如 JPEG。该处理中,是否进行在相机或稍后在一个原始文件 转换器,涉及多项业务,通常包括 我有些.RAW文件从我的罗技C920使用 V4L2例如抓起但是当我展示它看起来像这样的形象: RAW图像,其中在其
..
我在寻找一个简单例如使用V4L2在Linux下访问摄像机。 在哪里可以找到它?由于操作简单,越好。 谢谢, 解决方案 在这里尝试uvccapture code - >的 http://staticwave.ca/source/uvccapture/ 这是非常小但非常混凝土的例子,这使得所有使用V4L2概念(打开,设置格式,分配内存,请求缓冲区,Dqbuffer和查询缓冲区 - ioc
..
我通过USB德国坦克Grabster AV350(这是基于em2860芯片)来捕捉视频。 我没有成功时,更是打出了让音频。如果我玩的是捕获的视频与VLC或ffplay我只有3秒声音,然后将视频剩下一片寂静...... 在捕捉我没有得到任何错误。在结束它表明视频和音频捕获的大小.... 我使用FFmpeg的命令是: 的的ffmpeg -f ALSA -ac 2 -i HW:3 -f vide
..
在正常的快门时滞,传感器司机给caputured图像缓冲区V4L2层,这里JPEG(硬件)头增加了一些额外的数据(EXIF信息和缩略图),这层赋予图像缓冲区preVIEW堆(在HAL层),用于进一步处理。 但什么是拍照零快门的情况下,这个过程lag.Is同样正常的快门时滞?如何降低取图象呼叫和图像处理之间的时间。如果不是解释。 解决方案 要实现零快门时滞,摄像头驱动程序必须保持含全分辨率
..