object-detection相关内容
我正在使用具有对象检测功能的CameraX来分析来自摄像机的帧,但在设置正确的大小以生成显示当前检测到的对象的覆盖图时遇到问题。 val imageAnalysis = ImageAnalysis.Builder() .setTargetRotation(rotation) .setTargetResolution(size)
..
我在Mac上成功地使用了dlib对象检测。现在,我想在iOS应用程序中使用它。然而,在花费了无数个小时之后,dlib对象检测器总是返回零个矩形。 ifstream fin(dataDir + "/object_detector.svm", ios::binary); typedef dlib::scan_fhog_pyramid
..
我有以下示例图片: 我想用白色填充这些角上的三角形。我如何使用OpenCV检测它们?当然,在这个特殊的样本中,我可以只依赖于渐变或亮度。然而,在未来的图像将不会是如此完美的形状,所以我在考虑一些形状检测。 我听说形状通常可以通过例如霍夫变换来检测。但我不知道我应该从什么开始。 OpenCV中的轮廓检测无济于事,因为它发现了太多候选对象。 我尝试使用SIZE=3的ApproxPol
..
我正在尝试使用Python中的OpenCV执行一个简单的对象检测。我的问题是我无法使用TrackerMOSSE_Create方法,就好像它不存在一样。 我只使用pip install opencv-contrib-python安装了OpenCV-Conrib-python包,我知道它不能与OpenCV-python在一个虚拟环境中共存,所以我没有那个。 我正在开发MAC和Python3
..
我试着关注 https://tensorflow-object-detection-api-tutorial.readthedocs.io/en/latest/training.html#training-the-model 在Google CoLab 一切顺利,构建了pycoTools,使用OBJECT_DETACTION/Packages/tf2/setup.py进行设置,使用objec
..
如何从SSD中找到预测的图像ID和Box,我正在使用GitHub link这里是我想要保存图像ID和Box的测试函数 def test(loader, net, criterion, device): net.eval() running_loss = 0.0 running_regression_loss = 0.0 running_classification_loss = 0.0 nu
..
我要生成一个车辆数据集,以便在RCNN、快速RCNN、更快的RCNN等网络中进行培训。我的问题是: 原始图像中车辆的角度对探测器重要吗?我的意思是,如果数据集只包含从左到右的车辆图像,那么训练过的网络能检测到任何角度的车辆吗? 推荐答案 Detectron2最近增加了旋转速度更快的RCNN网络。要创建这样的模型,您应该为带有旋转边界框的车辆创建注释,即: rbbox = [
..
我正在使用PYTHON中的TensorFlow 2API进行对象检测。到目前为止,这个方法运行得很好。然而,如果我想保存模型,我使用的是exporter_main_v2.py,它导出一个图形(.pb)和一个检查点(checkpoint,ckpt-0.data,ckpt-0.index))。图表不不包括任何权重,我必须始终使用检查点来处理保存的模型。 是否有办法将所有权重保存到Protobuf(.p
..
我想为我的定制对象数据集训练YOLO模型。我在不同的网站上到处看到它,每个人都在谈论应该使用GPU来训练和运行YOLO定制模型。 但是,由于我没有图形处理器,我很困惑该怎么办?因为我买不起这样的图形处理器。此外,我读到关于谷歌可乐,但我不能使用它,我想使用我的模型在离线系统。 在GitHub看到程序中使用的YOLO的系统使用率后,我很害怕: https://github.com/AhmadYahy
..
我正在尝试在没有任何ML的情况下进行实时目标检测。该方法是根据对象的颜色配置文件来识别对象。我试着用一种颜色识别一个矩形物体,并画一个边框。代码如下: import cv2 import numpy as np class ColourBounds: def __init__(self, rgb): hsv = cv2.cvtColor(np.uint8([[[rg
..
我正在进行一个项目,其中我必须检测到一辆红色车辆(请参见下图)。 因为我相信这可以在不使用深度学习(在这种情况下是过度杀伤力)的情况下实现,所以我使用了直方图反投影,这取决于对象的颜色(红色)。结果令人满意 除非场景中存在与目标具有相同颜色分布的目标红色车辆以外的其他对象(请参见我的T恤下面的示例),否则算法会认为它也是感兴趣的对象,从而检测到感兴趣的对象和不相关的对象(我的T恤)。
..
我正在使用Google ML和CameraX为Android(Java)开发一个对象检测应用程序。我还使用了TensorFlow模型,该模型可以在here中找到。我的问题是我的bindingBox的坐标稍微有点不对齐,如下图所示。请忽略它被检测为铲子的事实,我的问题当前专注于捕获屏幕上显示的图形中的图像。 这是用于绘制GraphicOverlay的以下类; DrawGraphic.ja
..
我有大约50000个图像和注释文件,用于训练YOLOv5对象检测模型。我已经训练了一个模型,在另一台计算机上使用CPU没有问题,但它需要太长时间,所以我需要GPU培训。我的问题是,当我尝试使用GPU进行训练时,我总是收到这个错误: OSError: [WinError 1455] The paging file is too small for this operation to compl
..
是否可以查看模型摘要或绘制TensorFlow对象检测Git存储库中提供的TensorFlow对象检测模型。例如,查看更快的R-CNN模型的模型摘要? 推荐答案 可以使用模型摘要()Form TensorFlow查看模型摘要。 请参阅示例代码。 # Create the base model from the pre-trained model MobileNet V2 IMG_
..
在TensorFlow对象检测API中获取类和检测到对象的概率时遇到问题。我想将这两个值与每个图像一起打印。 代码如下: for image_path in TEST_IMAGE_PATHS: image = Image.open(image_path) # the array based representation of the image will be used lat
..
我使用更快的RCNN训练了一个模型,此模型用于跟踪条带。 here is the output of my model 我用来获得此输出的python代码如下: import cv2 import numpy as np import tensorflow as tf from object_detection.utils import label_map_util from o
..
我正在使用单镜头探测器(SSD),更具体地说,在Keras中使用this implementation。 当我检查SSD300时(虽然我注意到这也适用于SSD512),我注意到在每个卷积组之后都会有一个最大池来降低特征映射的维度。到目前为止还不错,但是在第5组之后(准确地说是在第5层之后),应用的最大池使用跨度1。我无法在SSD的original work上验证这一点,因为它是用Caffe写
..
我定义了一个具有824个类的pascal_label_map.pbtext,用create_pascal_tf_record.py从我的JPEG数据集创建TFRecord文件,使用Pascal VOC样式的批注。 脚本似乎正确地生成了这些TFRecords(例如,我检查了pascal_label_map.pbtext中的所有类都出现在批注中,并且每个JPEG都带有正确的批注)。但当我开始objec
..
我正在尝试从Person类获取边界框的像素坐标(标记为: Mcoco_Label_map.pbtxt item { name: "/m/01g317" id: 1 display_name: "person" } 目前我正在通过 将边界框和标签放到图像上 input_tensor = tf.convert_to_tensor(np.expand_dims(image_np
..
我需要为我的高中假期项目做一个OMR检测系统(如果足够可靠,它可能在一定程度上被学校使用),我对它做了相当多的研究,并尝试了从轮廓到模板匹配的一切方法,我觉得模板匹配工作很好,但它只能检测OMR表中许多圆圈中的一个圆圈,有人能帮我弄清楚如何检测OMR表中的多个(所有)圆圈(无论它们是否起泡),OMR表及其各自的坐标,这对我来说就足够了。 我尝试的内容: import numpy as
..