opencv3.1相关内容
我正在尝试检测从我的网络摄像头拍摄的视频中的红色.下面给出的以下代码示例取自 OpenCV 文档.代码如下: 导入 cv2将 numpy 导入为 np上限 = cv2.VideoCapture(0)而(1):# 获取每一帧_, frame = cap.read()# 将 BGR 转换为 HSVhsv = cv2.cvtColor(帧,cv2.COLOR_BGR2HSV)# 定义 HSV 中蓝色的
..
这是一个使用 OpenCV 读取 picam 的小型 python3 脚本: #picamStream.py导入系统,操作系统从 picamera.array 导入 PiRGBArray从 picamera 导入 PiCamera导入时间导入 cv2# 初始化相机并获取原始相机捕获的引用相机 = PiCamera()相机分辨率 = (960, 540)相机帧率 = 30rawCapture
..
我已经下载了 opencv 3.1,我想在 Visual Studio 2015 中启动一个项目.我不知道如何将这个库链接到我的项目.另外我想知道我是否可以继续使用这个 opencv,因为它只有一个 x64 并且我的项目不针对 64 位系统. 解决方案 为 windows 下载 opencv 3.1 解压到c:/opencv 等文件夹 通过setx -m设置环境变量.这取
..
我在从文件加载训练的 SVM 时遇到问题.我使用 Python 和 OpenCv 3.1.0.我通过以下方式创建 svm 对象: svm = cv2.ml.SVM_create() 接下来,我训练 svm 并通过以下方式保存到文件: svm.save('data.xml') 现在我想在其他 Python 脚本中加载这个文件.在文档中,我找不到任何方法来做到这一点. 是否有从文件加载
..
我正在尝试从特定时间间隔的输入视频中获取帧.所以建议我任何对我有帮助的解决方案.告诉我如何在以下代码中设置时间限制. 导入 cv2vidcap = cv2.VideoCapture('baahubali2.mp4')vidcap.set(cv2.CAP_PROP_POS_MSEC,1000)成功,图像 = vidcap.read()计数 = 0成功 = 真成功时:成功,图像 = vidcap.r
..
在我正在开发的App中,我使用 CameraBridgeViewBase.CvCameraViewListener2 使用 OpenCV4Android 打开相机,当我触摸屏幕时,将该框架设置为 ImageView ,如下代码所示.问题是设置为 imageview 的图像的颜色总是与相机上预览的颜色不同,如图所示.我认为此问题与我在以下代码中说明的转换有关 我的问题是如何将Mat对象转换为保
..
我正在尝试检测蓝色的圆形,它是CENTER。然后在检测到的圆上画一个圆,并在其中心上画一个很小的圆。但是我遇到了一些错误。 (我正在使用OpenCV 3.1.0,Python 2.7 Anaconda 64位,PyCharm作为IDE)(请使用python代码帮助我) 我运行以下代码: import cv2 import numpy as np cap = cv2.Video
..
在python 2.7.12中使用opencv3.1作为cv2.我现在遇到的问题是,尽管我遵循多组指令,但这些指令似乎都使用与我本人相同的设置,或者至少使用非常相似的设置.我主要通过以下两个示例进行操作: CodeGenerater的Blogspot教程.我没有忘记做一个回调函数或使用cv2.getTrackbarPos.我觉得我执行的特定顺序或图像显示循环肯定有问题.这就是我所拥有的,它会使用初
..
我试图将自己的内核实现为中值过滤器,例如伪代码: //main.cpp #include "opencv2/opencv.hpp" cv::Mat inputMat = cv::imread() cudaMedianCaller (inputMat, kernelMat) //medianFilter.h #include "opencv2/opencv.hpp" cudaMedianCa
..
我正在编写一个检测简单几何形状的Java应用程序. 以下Python代码用作参考:如何使用OpenCV检测简单的几何形状 这是[Python]的一些代码: contours,h = cv2.findContours(thresholdedImage,1,2) for cnt in contours: approx = cv2.approxPolyDP(cnt,0.01*
..
我有一个使用OpenCV 3.1的C ++项目,并且使用共享库可以正常工作.但是现在我想使用静态库(位于项目目录中的文件夹中)对其进行编译,因为我希望能够在未安装OpenCV的情况下将其导出(并在必要时进行编辑和重新编译). 这次我重新编译了OpenCV,将共享库设置为NO: make -DCMAKE_BUILD_TYPE=RELEASE -DBUILD_SHARED_LIBS=NO
..
我正在尝试从网络摄像头拍摄的视频中检测红色.下面给出的以下代码示例摘自 OpenCV文档. 代码如下: import cv2 import numpy as np cap = cv2.VideoCapture(0) while(1): # Take each frame _, frame = cap.read() # Convert BGR to HSV
..
关于opencv + H.264,有很多问题要问,但是 他们都没有给出详细的解释. 我在Visual Studio中使用的是openh264(openh264-1.4.0-win32msvc.dll)和opencv 3.1(启用了ffmpeg的cmake的自定义版本),我想将来自网络摄像头的视频保存为H.264压缩的mp4格式 VideoWriter写入= VideoWriter("D
..
这是一个使用OpenCV读取picam的小python3脚本: #picamStream.py import sys, os from picamera.array import PiRGBArray from picamera import PiCamera import time import cv2 # initialize the camera and grab a refere
..
我有一个实时视频源,该源跟踪绿色对象并在对象区域上绘制一个矩形.我很好奇我如何能够裁剪提要以仅显示矩形所包围的区域. 以下是相关部分: while True: (success, frame) = webcam.read() frame = imutils.resize(frame, width = 1000) hsv = cv2.cvtColor(fra
..
我正在使用OpenCV 3.1和Python. 当我尝试用文字校正图像(校正其倾斜度)时出现问题.我正在使用cv2.warpPerspective使其成为可能,但是图像质量下降很多.您可以在此处看到图像的原始部分: ,然后是“旋转的"图像: 就像平滑. 我正在使用形态转换,例如: kernel = np.ones((2, 2), np.uint8) blur_imag
..
我正在尝试使用OpenCV ANN库实现神经网络.我有一个可行的解决方案,但是升级到OpenCV 3.1后,它停止了工作.因此,我创建了一个简化的测试代码,但问题仍然存在. ANN已成功训练,但是当我尝试从trainData中调用带有行的预测时,它将返回nan值的Mat.代码是 cv::Ptr nn = cv::ml::ANN_MLP::create()
..
我尝试使用OpenCV函数cvtColor,Canny和HoughLinesP编写以下代码,但是在某些情况下无法获得准确的结果或无法正常工作. private boolean opencvProcessCount(Uri picFileUri) { hairCount = 0; totalC = 0; //Log.e(">>>>>>>>","count " + picFileUri); tr
..
我正在使用pytesseract,枕头,cv2对图像进行OCR,并在图像中显示文本.由于我的输入是扫描的PDF文档,因此我首先将其转换为图像(JPEG)格式,然后尝试提取文本.我只有一半.输入为表格,标题未显示,因为标题背景为黑色.我也尝试过getstructuringelement,但无法找出一种方法,这就是我所做的- import cv2 import os import numpy
..
我是OpenCV世界和神经网络的新手,但是我在C ++/Java方面有一定的编码经验. 我创建了我的第一个ANN MLP并了解了XOR: #include #include #include #include
..