object-detection相关内容
我的目标是让一个滑动窗口以重叠的步骤在图像上滑动,这样我可以在每个窗口中运行一个分类器,并检测是否有有趣的对象。 为此,我需要确保 windows我提取的分类真正做整个图像,和 抓取原始图片上每个滑动窗口的顶部和左侧坐标。 滑动窗口 - 如何获取窗口位置在图像上? 并基于滑动窗口的此代码: https://github.com/keepitsimple/ocrtes
..
我最近开始探索视觉识别的世界,对SLAM特别感兴趣。我试过和测试不同的SLAM实现在笔记本电脑上从openslam.org 我还是新的领域,仍在学习它。我想在Android设备上实现SLAM。任何人都可以点我任何这样的实现。或者你可以建议SLAM的哪个实现在Android设备上最好的工作。我可以访问顶部的Android设备,如Galaxy S6或Nexus 5. 在开始工作之前我的想法,我
..
假设我想训练一个HOG描述符+线性SVM用于汽车检测。我有必要做,让我们说三个分类器,是汽车的后视图,前视图和侧视图,或者我可以训练一个单一的分类器的汽车的所有观点? 解决方案 这不是必须的,但建议。您可以创建一个单一的分类器来处理多个案例,但它不会执行非常好的整体。这里的问题不在于不同视图之间描述符响应的可变性,而是后/前向和侧向检测器之间的宽高比的差异。您用于提取您的HOG的滑动窗口将
..
我有一个关于准备用于级联分类器的阳性样本数据集的问题,将用于对象检测。 作为阳性样本,我被给予3图片集: 一组全彩色图片(大约1200x600),具有白色背景对象以不同的角度显示在每个图像中 另一组以灰度和白色背景的相同图像缩小到检测窗口大小(60x60) 另一组以灰度级和黑色背景使用相同的图片,缩小到检测窗口大小(60x60) 我的问题是在集合1中,背景应该是白色吗?是否应
..
我试图修改TensorFlow中Cifar10提供的网络结构。通常,我在第一个卷积层(conv1)之后添加了另一个卷积层(conv12)。无论我如何设置过滤器(我尝试所有1x1,3x3,5x5)和是否使用重量衰减,有一个新的层将降低到低于10%的精度。这相当于Cifar10中的随机猜测,因为有10个类。 代码结构如下,我不修改cifar的任何其他部分,除了设置输入图像的大小为48x48(而不
..
该代码位于 http://www.cs .berkeley.edu /〜rbg / latent / voc-release5.tgz 广泛用于对象检测。有一个返回 ds , bs 和树的 imgdetect 函数。看起来 ds 包含检测框, bs 包含用于检测的过滤器在图像中是否响应,树包含部分信息分数。我无法找到如何使用树和 bs 获取部分分数。基本上,给定一个检测框,我想知道哪些过滤器在检测
..
我试图创建一个Android应用程序,使用openCV从相机检测对象,我读取openCV参考,发现有很多方法的图像检测,我的目的是创建一个应用程序 1)应用程序可以检测来自数据库中的任何对象(可以检测的对象的集合)处理/检测很重要) 2)对象映像的数据库将不时更新(数据库最好在外部服务器上) - 这是否意味着我不能使用级联分类器,HOG或任何机器学习方法? 3)相机框架有时可能有
..
我收集了我的图像检测算法的结果。所以基本上我做的是,从一组图像(大小为320×480),我会运行一个滑动窗口的64×128通过它,并在一定数量的预定义比例。 我明白: True Positiveives =当我检测到的窗口重叠(在定义的交叉点大小/ 假阳性=当算法给出正窗口,这是在真实的外面。 False Negatives =当它没有给出正窗口,而地面实况注释声明有一个对象。
..
我想进行行人检测和追踪。 输入:来自CCTV摄影机的视频流。 输出: / li> #从右向左转换 #中间的人数 我做了什么: 对于行人检测我使用HOG和SVM。检测率较高,假阳性率高。 问题: 检测后如何计算所需的值以上所列。 谁可以告诉我什么是我必须使用的跟踪算法,以及任何用于行人检测的好算法。 还是应该使用跟踪算法?有没有办法没有它? 对代码/
..
我正在开发一个应用程序,其中我使用SIFT + RANSAC和Homography来查找对象(OpenCV C ++,Java)。我面对的问题是,有很多离群值RANSAC表现不佳。 因为这个原因,我想尝试什么作者的SIFT说是相当不错:投票。 我读过我们应该在4维特征空间中投票,其中4个维度是: 位置[x,y](有人说Traslation) 缩放 $ b 虽然使用ope
..
继续此主题: 什么是车牌照检测的好算法? 我开发了我的图像处理技术来强调许可证板材尽可能多,总体来说我很高兴,这里有两个样本。 现在是最困难的部分,实际上检测车牌。我知道有一些边缘检测方法,但我的数学相当差,所以我无法将一些复杂的公式转换为代码。 到目前为止,我的想法是循环遍历图像中的每个像素(for循环基于img宽度和高度)从这里比较每个像素对颜色列表,从这里检查算法以查
..
我发现了许多方法来检测不同的形状。但是,当我要一个物理对象时,运气很好。从我读到的,我们应该有一个围绕图像的黑色边框,以制作一个模式文件。如果我遵循这个概念,并生成一个模式,然后我的应用程序检测图像打印输出。 更新 虽然我接受一个答案,但我的问题仍然没有解决。 欢迎任何进一步的研究和链接! 在3D对象上进行对象识别是一个更复杂的问题,我不知道任何Android库提供
..
语义分割只是Pleonasm还是“语义分割”和“分割”之间有区别吗? “场景标记”或“场景解析”有什么区别? 像素级和像素级分割之间有什么区别? (侧面问题:当你有这种像素级的注释,你可以免费获取对象检测,还是还有事情要做?) 请为您的定义指定来源。 使用“语义分段”的来源 Jonathan Long,Evan Shelhamer,Trevor Darrell:语法分
..
我有一个关于与OpenCV匹配的对象的问题。 我使用在opencv 2.3中实现的SURF算法首先检测每个图像上的特征,然后提取这些特征的描述符。 使用Brute Force Matcher匹配的问题,我不知道我如何判断两个图像是否匹配,就像我使用两个不同的图像时,两个图像之间的描述符之间有线! / p> 我的代码的这些输出,两个图像(我们与它们相比较)是相似或不同的,结果图像表示两个图
..
背景 对于我在大学的最后一个项目,我正在开发一个车牌照检测应用程序。我认为自己是一个中间程序员,但我的数学知识缺乏任何高中以上,这使得生产正确的公式比它可能应该是更难。 我花了一个良好的时间查找学术论文,例如: 检测图片中的车辆牌照 使用图像显着性强大的车牌检测 本地增强车牌检测的车辆图像 在数学方面,我迷失了。由于此测试,各种图形图像被证明是有效的,例如: 至
..
我训练级联分类器检测字母,这是我使用的代码。 当我启动程序,它打开我的网络摄像头,但不显示图像(帧) 我注意到此行会导致问题: faces_cascade.detectMultiScale(frame_gray,faces,1.1,2,0 | CASCADE_SCALE_IMAGE,Size(30,30)); 这是xml文件。 我应该怎么做才能显示
..
我在运行时获取分段错误错误以下代码查找轮廓。我已经引用了此表单上的此帖子,但没有帮助我。我知道 findContours 有一些问题这是 findContours 。请检查这两个链接,并帮助我解决此错误。我不知道为什么我得到分段错误错误。 #include“opencv2 / objdetect / objdetect.hpp” #include“opencv2 / highgui /
..
我写了一个程序,得到2张图片之间的匹配。 这是代码。但如果我使用BruteForceMatcher>(不是flann)它工作。 #include #include“opencv2 / core / core.hpp” #include“opencv2 / features2d / features2d.hpp” #include“opencv2 / highg
..
我试图仅计算块的HOG功能。我探索了 opencv / module / gpu / src / 下列出的 hog.cpp 。下面是我改变计算机的功能块的代码。 void cv :: gpu :: HOGDescriptor :: getDescriptors (const GpuMat& img,Size win_stride,GpuMat& descriptors,int descr_
..
我正在使用从 Features2D +主题词库中编译和运行代码来查找已知对象教程,我得到这个 OpenCV Error:Assertion failed(npoints> = 0& & points2.checkVector(2)== npoint s&& points1.type()== points2.type())在未知函数中,文件c:\Users\vp\wor k\ocv\op
..