image-processing相关内容
我尝试创建一个 Gabor 过滤器.我们都知道这种过滤器比任何其他过滤器都更复杂,因为它具有更复杂的特征,例如具有不同的尺度和方向.Gabor滤波器方程为: 要创建具有特定比例和方向的 Gabor 过滤器,wikipedia 给出了我们一个简单的matlab代码: sigma_x = sigma;sigma_y = 西格玛/伽玛;nstds = 3;xmax = max(abs(nstds
..
我正在尝试优化 此 代码,尤其是: bool interpolate(const Mat &im, float ofsx, float ofsy, float a11, float a12, float a21, float a22, Mat &res){布尔 ret = 假;//输入大小(-1 用于安全双线性插值)常量 int 宽度 = im.cols-1;常量 int 高度 = im.row
..
使用霍夫线检测图像中的线条后,我如何使用它计算参考图像线条的角度变化(旋转)? 解决方案 读者注意:这是一个后续问题,背景参考这些: 如何选择最大强度在MATLAB中的霍夫变换? 在 MATLAB 中计算位移 这个过程与我之前展示的类似.下面我使用的是 您之前问题中的图片(因为你只提供了一个,我通过将第一个旋转 10 度创建了另一个). 我们首先检测两个图像的线条.我们
..
我有一张图片,我只剪掉了一列.之后我把它变得合乎逻辑,所以这个专栏里只有 0 和 1. 假设我在此列中的值是 1111000110000000000000011111111 我想计算每个 1 块或每个 0 块的长度. 结果是 1 - 4(前 1)0 - 3(前 0)1 - 2等等... 我只知道整个列的计数,但我不能对每个不同的块进行计数.请任何人帮助我. 解决方案 设
..
我在论文的实施过程中遇到了一些问题移动观察者的统计背景减法. 问题 1: 在第 4.1 节中,它谈到“...中值方差是根据第一个组件在整个图像上计算..." 我很困惑作者的实际意思. 根据 Stauffer &Grimson 的论文 Adaptive Background Mixture Models for Real-Time Tracking (1999),对于每个背景
..
我有兴趣找到一个场景的视差图.首先,我使用以下代码进行了立体校准(我在 Google 的帮助下自己编写了它,在没有找到任何用 Python 编写的 OpenCV 2.4.10 相同的有用教程之后). 我在两个相机上同时拍摄了棋盘的图像,并将它们保存为 left*.jpg 和 right*.jpg. 将 numpy 导入为 np导入简历2导入全局# 终止条件标准 = (cv2.TERM_CR
..
假设我有一张灰度图像.考虑每个像素周围的圆形邻域窗口.我需要获取每个像素周围圆形邻域的颜色直方图. 如何在 MatLab 中针对这个问题有效地实现循环邻域运算? 解决方案 我不想给你一切,但我认为这应该对你有很大帮助. 你可以做一个圈子做类似的事情 h = fspecial('disk',rad);h = h>0; 然后你可以把它放在一个更大的矩阵中的任何地方做类似的事情
..
设置: 相机:Blackfly S Mono 20.0 MP 镜头:光远心镜头 TC23080 灯:16 个绿色 LED Python:3.7.3 openCV:4.0+ 抱歉图片链接,但一张图片大约 20MB,也不想失去任何质量 图像样本: https://drive.google.com/file/d/11PU-5fzvSJt1lKlmP-lQXhdsuCJPG
..
我正在尝试重新编码 特征匹配和单应性使用 mexopencv .Mexopencv 将 OpenCV 视觉工具箱移植到 Matlab 中. 我在 Matlab 中使用 OpenCV 工具箱的代码: 函数你好全部关闭;全部清除;disp('特征匹配演示,完成后按键');boxImage = imread('D:/pic/500_1.jpg');boxImage = rgb2gray(boxI
..
我目前正在编写一个版本的 MATLAB RegionProps GNU Octave 的函数.我已经实现了大部分,但我仍然在努力实现几个部分.我曾之前询问过关于第二个中心时刻的问题 一个地区. 这在理论上很有帮助,但我在实际执行这些建议时遇到了麻烦.我得到的结果与 MATLAB(或常识)大相径庭,真的不明白为什么. 考虑这个测试图像: 我们可以看到它与 X 轴倾斜 45 度,短轴
..
我有这个雕像的图像. 我正在尝试找到雕像的顶部、底部、左侧和最右侧的点.有没有办法测量每边的边缘以确定雕像上的最外点?我想得到每一边的 (x,y) 坐标.我尝试使用 cv2.findContours() 和 cv2.drawContours() 来获得雕像的轮廓. 导入 cv2img = cv2.imread('statue.png')灰色 = cv2.cvtColor(img, cv2.
..
我目前的项目是建立一个人脸认证系统.我的限制是:在注册期间,用户提供单个图像进行训练.但是,我可以在身份验证时添加和使用用户提供的图像. 我想在训练中添加更多图像的原因是,用户环境不受限制 - 不同的照明条件,与相机的不同距离,来自不同的 MP 相机.唯一的缓解是姿势几乎是正面的. 我认为,上述问题类似于广泛使用的面部标记应用程序.任何人都可以提出一种自适应和智能地使用可用图像的方法吗
..
我无法区分以下两个轮廓.cv2.contourArea 为两者提供相同的值.Python中有什么函数可以区分它们吗? 解决方案 为了区分填充轮廓和未填充轮廓,可以在查找轮廓时使用轮廓层次结构 cv2.findContours().具体可以选择轮廓检索模式可选地返回一个输出向量,其中包含有关图像拓扑的信息.有四种可能的模式: cv2.RETR_EXTERNAL - 仅检索最外层轮廓(无
..
我目前正在使用 opencv (CV2) 和 Python Pillow 图像库来尝试拍摄任意手机的图像并用新图像替换屏幕.我已经到了可以拍摄图像并识别手机屏幕并获取角落的所有坐标的地步,但是我很难用新图像替换图像中的那个区域. 我目前的代码: 导入 cv2从 PIL 导入图像image = cv2.imread('mockup.png')edged_image = cv2.Canny(图
..
我正在尝试从关系数据库中检测所有矩形.但是我的脚本没有检测到一些盒子.请帮我这样做.谢谢. 图片: 我的代码: #!/usr/bin/python导入简历2将 numpy 导入为 npim = cv2.imread("table.png")图像 = cv2.cvtColor(im,cv2.COLOR_BGR2GRAY)阈值 = cv2.threshold(图像,0,255,cv2.T
..
我有两个平面图像 A 和 B我已经使用特征点计算了这两个图像之间的单应性,我的问题是,如果 A 和 B 都放大到两倍大小,假设 A' 和 B'.单应性会怎样?谢谢你. 解决方案 单应性不变.只要两个图像都经过相同的线性缩放,它将是相同的. 单应性是 3D 空间中两个 2D 平面之间的映射.它结合了旋转和平移与相机矩阵.如果相机相对于对象的位置没有改变,那么从对象平面中的点到图像平面中
..
我一直在尝试混合两个图像.我目前采用的方法是,我获取两个图像的重叠区域的坐标,并且仅对于重叠区域,我在添加之前与 0.5 的硬编码 alpha 混合.所以基本上我只是从两个图像的重叠区域中获取每个像素值的一半,然后添加它们.这并没有给我一个完美的融合,因为 alpha 值被硬编码为 0.5.这是 3 张图像混合的结果: 如您所见,从一张图像到另一张图像的过渡仍然可见.如何获得可以消除这种可见
..
我在 python 中编写了一个小脚本,我试图提取或裁剪扑克牌中仅代表艺术品的部分,删除所有其余部分.我一直在尝试各种阈值方法,但无法实现.另请注意,我不能简单地手动记录艺术品的位置,因为它并不总是处于相同的位置或大小,而是总是呈矩形,其他一切都只是文本和边框. from matplotlib import pyplot as plt导入简历2img = cv2.imread(文件名)灰色
..
是否可以只模糊图像的一个子区域,而不是用 OpenCV 模糊整个图像,以节省一些计算成本? EDIT:很重要的一点是,在对子区域的边界进行模糊处理时,应尽可能使用现有的图像内容;只有当卷积超出原图的边界时,才可以使用外推法或其他人工边界条件. 解决方案 要对整个图像进行模糊处理,假设您要覆盖原始图像(支持就地过滤 cv::GaussianBlur),你会有类似的东西 cv::Ga
..
谁能告诉我如何在 python 中读取包含 .mhd/.raw 文件的数据集? 解决方案 最简单的方法是使用 SimpleITK (MedPy 也将 ITK 用于 .mhd/.raw 文件).命令 pip install SimpleITK 适用于许多 python 版本.要阅读 .mhd/.raw,您可以使用此代码 来自 kaggle 将 SimpleITK 导入为 sitk将 n
..