computer-vision相关内容
我正在尝试重新编码 特征匹配和单应性使用 mexopencv .Mexopencv 将 OpenCV 视觉工具箱移植到 Matlab 中. 我在 Matlab 中使用 OpenCV 工具箱的代码: 函数你好全部关闭;全部清除;disp('特征匹配演示,完成后按键');boxImage = imread('D:/pic/500_1.jpg');boxImage = rgb2gray(boxI
..
我正在尝试使用 OpenCV 找到棋盘的角. 我使用的图像包含两个棋盘,但我只对其中一个的子区域感兴趣.下图为原图. 使用 GIMP,然后我选择了感兴趣的区域,并将所有其他像素设置为默认值. 我实际上并没有裁剪图像,因为我已经使用此图像尺寸校准了相机并且我不想更改它.该操作应该等同于更改图像矩阵中的值,但我更喜欢使用 GIMP 进行操作.这是一个一次性的实验,使用图形工具而不是使
..
我目前正在编写一个版本的 MATLAB RegionProps GNU Octave 的函数.我已经实现了大部分,但我仍然在努力实现几个部分.我曾之前询问过关于第二个中心时刻的问题 一个地区. 这在理论上很有帮助,但我在实际执行这些建议时遇到了麻烦.我得到的结果与 MATLAB(或常识)大相径庭,真的不明白为什么. 考虑这个测试图像: 我们可以看到它与 X 轴倾斜 45 度,短轴
..
我有这个雕像的图像. 我正在尝试找到雕像的顶部、底部、左侧和最右侧的点.有没有办法测量每边的边缘以确定雕像上的最外点?我想得到每一边的 (x,y) 坐标.我尝试使用 cv2.findContours() 和 cv2.drawContours() 来获得雕像的轮廓. 导入 cv2img = cv2.imread('statue.png')灰色 = cv2.cvtColor(img, cv2.
..
我目前的项目是建立一个人脸认证系统.我的限制是:在注册期间,用户提供单个图像进行训练.但是,我可以在身份验证时添加和使用用户提供的图像. 我想在训练中添加更多图像的原因是,用户环境不受限制 - 不同的照明条件,与相机的不同距离,来自不同的 MP 相机.唯一的缓解是姿势几乎是正面的. 我认为,上述问题类似于广泛使用的面部标记应用程序.任何人都可以提出一种自适应和智能地使用可用图像的方法吗
..
http://opencv.willowgarage.com/documentation/cpp/features2d_common_interfaces_of_descriptor_matchers.html#flannbasedmatcher 请有人给我看示例代码或告诉我如何使用这个类和方法.我只想将查询图像中的 SURF 与通过应用 Flann 设置的图像匹配.我在示例中看到了许多图像
..
我正在使用 openCV 和 C++ 对行走进行运动识别,我想创建一个蒙版或复制图像,以实现所提供图片中的效果..以下是图片的解释可以看到由此产生的人类行走的斑点.然后,创建原始帧的蒙版图像或复制图像,现在对二进制人体斑点进行蒙版,并将未蒙版像素设置为零.结果是提取的具有黑色背景的人体.下图显示了人类斑点是如何被提取然后被屏蔽的.这是针对视频序列的每 5 帧进行的.到目前为止,我的代码包括获取每
..
我无法区分以下两个轮廓.cv2.contourArea 为两者提供相同的值.Python中有什么函数可以区分它们吗? 解决方案 为了区分填充轮廓和未填充轮廓,可以在查找轮廓时使用轮廓层次结构 cv2.findContours().具体可以选择轮廓检索模式可选地返回一个输出向量,其中包含有关图像拓扑的信息.有四种可能的模式: cv2.RETR_EXTERNAL - 仅检索最外层轮廓(无
..
我目前正在使用 opencv (CV2) 和 Python Pillow 图像库来尝试拍摄任意手机的图像并用新图像替换屏幕.我已经到了可以拍摄图像并识别手机屏幕并获取角落的所有坐标的地步,但是我很难用新图像替换图像中的那个区域. 我目前的代码: 导入 cv2从 PIL 导入图像image = cv2.imread('mockup.png')edged_image = cv2.Canny(图
..
我想学习使用卡尔曼滤波器跟踪移动的球.虽然有很多教程,但我还有一些问题. 如果我们能在视频序列的每一帧中提取出球,我们就可以知道球的位置.那么,为什么我们还需要使用卡尔曼滤波器呢?卡尔曼滤波器在这里的作用是什么? 卡尔曼滤波器:x(k+1) = A.x(k) + B.u(k) + 噪声 y(k) = C.x(k) + 噪声 那么,我们如何定义 A、B、C 呢?假设我们要跟踪移动的
..
..
我正在尝试从关系数据库中检测所有矩形.但是我的脚本没有检测到一些盒子.请帮我这样做.谢谢. 图片: 我的代码: #!/usr/bin/python导入简历2将 numpy 导入为 npim = cv2.imread("table.png")图像 = cv2.cvtColor(im,cv2.COLOR_BGR2GRAY)阈值 = cv2.threshold(图像,0,255,cv2.T
..
我指的是 Google 的 Tensor-Flow 对象检测 API.我已经成功地训练和测试了这些对象.我的问题是在测试后我得到输出图像,在对象周围绘制了框,我如何获得这些框的 csv 坐标?测试代码可以在 (https://github.com/tensorflow/models/blob/master/research/object_detection/object_detection_tut
..
..
我有两个平面图像 A 和 B我已经使用特征点计算了这两个图像之间的单应性,我的问题是,如果 A 和 B 都放大到两倍大小,假设 A' 和 B'.单应性会怎样?谢谢你. 解决方案 单应性不变.只要两个图像都经过相同的线性缩放,它将是相同的. 单应性是 3D 空间中两个 2D 平面之间的映射.它结合了旋转和平移与相机矩阵.如果相机相对于对象的位置没有改变,那么从对象平面中的点到图像平面中
..
我正在研究 FLANN,一个用于近似最近邻搜索的库. 对于 LSH 方法,它们表示一个对象(搜索空间中的点),如一个无符号整数数组.我不确定他们为什么这样做,而不是将一个点简单地表示为一个双精度数组(这将表示一个点在多维向量空间中).也许是因为 LSH 用于二进制特征?有人可以分享更多关于可能使用 unsigned int in这个案例?如果每个功能只需要 0 和 1,为什么要使用 unsi
..
我正在尝试在我正在开发的移动应用中实现一个复活节彩蛋.当在相机视图中检测到徽标时,将触发这些复活节彩蛋.我要检测的徽标是这个:. 我不太确定解决此问题的最佳方法是什么,因为我对计算机视觉还很陌生.我目前正在使用 Canny 算法查找水平边缘.然后我使用概率霍夫变换找到线段.其输出如下(蓝线表示概率霍夫变换检测到的线段): 下一步我要寻找一组大约 24 条线(适合几乎正方形的矩形),每条
..
我一直在尝试混合两个图像.我目前采用的方法是,我获取两个图像的重叠区域的坐标,并且仅对于重叠区域,我在添加之前与 0.5 的硬编码 alpha 混合.所以基本上我只是从两个图像的重叠区域中获取每个像素值的一半,然后添加它们.这并没有给我一个完美的融合,因为 alpha 值被硬编码为 0.5.这是 3 张图像混合的结果: 如您所见,从一张图像到另一张图像的过渡仍然可见.如何获得可以消除这种可见
..
我正在使用稀疏数据的特征值分解来实现 PCA.我知道 matlab 实现了 PCA,但它可以帮助我在编写代码时理解所有技术细节.我一直在遵循 here,但与内置函数 princomp 相比,我得到了不同的结果. 任何人都可以看看它并指出正确的方向. 代码如下: 函数 [mu, Ev, Val ] = pca(data)% mu - 平均图像% Ev - 矩阵,其列是对应于特征的特征向
..
我在 python 中编写了一个小脚本,我试图提取或裁剪扑克牌中仅代表艺术品的部分,删除所有其余部分.我一直在尝试各种阈值方法,但无法实现.另请注意,我不能简单地手动记录艺术品的位置,因为它并不总是处于相同的位置或大小,而是总是呈矩形,其他一切都只是文本和边框. from matplotlib import pyplot as plt导入简历2img = cv2.imread(文件名)灰色
..