object-detection相关内容
我已经使用 TensorFlow 成功训练了一个对象检测模型,并使用此处给出的示例配置:https://github.com/tensorflow/models/tree/master/object_detection/samples/configs 现在我想微调我的配置以获得更好的结果.我在那里看到的有希望的选项之一是“train_config"下的“data_augmentation_o
..
在花了几天时间尝试完成这项任务后,我想分享一下我如何回答这个问题的经验: 我如何使用 TS 对象检测来训练使用我自己的数据集? 解决方案 这里假设模块已经安装.如果没有,请参阅他们的文档. 免责声明 这个答案并不意味着是训练对象检测模块的正确或唯一方式.这只是我分享我的经验和对我有用的东西.我愿意接受建议并了解更多相关信息,因为我对机器学习总体上还是个新手. TL;
..
我找到了很多方法来检测不同的形状.但是当我去寻找一个物理对象时,运气不好.从我读到的,我们应该在图像周围有一个黑色边框来制作图案文件.如果我遵循这个概念并生成一个模式,那么我的应用程序会在打印输出时检测到图像.但在现实世界中,物理对象的周围不一定有黑色边框方形. 更新 虽然我接受了答案,但我的问题仍未解决.由于目前还没有检测物理对象的解决方案. 欢迎任何进一步的研究和链接!
..
尝试使用 Android Studio 通过 Tensorflow Lite 实现自定义对象检测模型.我正在遵循此处提供的指导:在移动设备上运行TensorFlow Lite,但是没有成功.示例模型运行正常,显示所有检测到的标签.尽管如此,当我尝试使用我的自定义模型时,我根本没有得到任何标签.我也尝试过其他模型(来自互联网,但结果是一样的).就像标签没有以写方式传递一样.我复制了我的 detect
..
我已经使用 ARKit 2.0 完成了 3d 对象扫描和检测.我已经从物体的各个侧面扫描了 3d 物体.完成 100% 扫描后,就会为该对象命名,然后将该 ARReference 对象和图像保存在文档目录中.然后单击按钮,我将检测扫描的对象并从文档目录中显示它的名称和图像. 物体被检测到,但检测物体花费的时间太长.我已经阅读了 Apple 文档以获得最佳实践和限制.还有一些关于 ARKit
..
我正在开展一个检测物体的项目,我正在使用 Anaconda 提取 yolo v3 检测到的物体的图像.这就是我安装 Python 并运行 yolo v3 的方式:https://github.com/统治gt09/yolov3workflow/tree/master/2_YoloV3_Execute问题是我对 Python 一无所知.是否可以在视频运行时提取图像并将它们存储在单独的文件中?
..
当相机打开时,一个空白的相机会出现几秒钟,它总是给出相同的输出并停止. 预测:[{“className":“线虫,线虫蠕虫,蛔虫",“概率":0.050750732421875},{“className":“火柴棒",“概率.46"359:30},{“className":“打火机,灯光,点火器,点火器",“概率":0.021453857421875}] 知道如何进行实时预测吗?没有得
..
我找到了有关安装的说明,但尽管设置了 sys 路径,它还是给我错误提示 No such file or directory: 'content/drive/MyDrive/TensorFlow/models/research'这是我从克隆存储库到设置路径的整个代码: %cd/content/drive/My Drive/Tensorflow!git 克隆 https://github.com/t
..
我绞尽脑汁使用网络摄像头教程自定义 TensorFlow 对象检测,以计算从每个分类中检测到的对象数量.我使用efficientdet_d0_coco17_tpu-32 模型训练了我的自定义检测模型.我也在使用“detect_from_webcam.py"教程脚本.我能够使检测工作并在屏幕上显示分类.现在我想显示检测到的每个分类的数量. 我查看并尝试了 TensorFlow 对象计数 API
..
我喜欢使用 tensorflow 从 faster rcnn 只训练 RPN 网络.在caffe中,我只训练过RPN. 在 tensorflow 中,本教程展示了如何训练自定义网络.然后其他教程在这里讨论了如何使用来自 modelzoo 的模型进行训练.> 所以对于我的情况,只训练 RPN 部分,哪种方法适合我?说如果我遵循定义 CNN 网络的第一种方法,我如何为 转移学习 加载 预训练模
..
这里是关于在某些时候将 Mobilenet+SSD 转换为 tflite 的教程,他们使用 export_tflite_ssd_graph.py,据我所知,此自定义脚本用于支持tf.image.non_max_suppression 操作. export CONFIG_FILE=gs://${YOUR_GCS_BUCKET}/data/pipeline.config出口 CHECKPOINT_P
..
我希望只使用一个类,person(以及 BG,背景),用于 Mask RCNN 对象检测.我正在使用此链接:https://github.com/matterport/Mask_RCNN 来运行掩码 rcnn.有没有一种特定的方法来完成这个(编辑特定文件,创建一个额外的 python 文件,或者只是通过从 class_names 数组中过滤选择)?任何方向或解决方案将不胜感激.谢谢 解决方案
..
我是机器学习的新手,并且已经开始使用配备 GeForce GTX 540M 的 Windows 8.1 电脑.我跟着这个教程开始使用对象检测模型.我构建了自己的数据集并尝试按照教程训练它,但使用“ssd_mobilenet_v1_coco_2017_11_17"模型.但是无法成功执行,因为我在使用教程中给出的“train.py"文件时遇到了麻烦. 所以我用谷歌搜索,发现我们必须使用“mode
..
我希望能够使用 Tensorflow 对象检测 API(最好在 Tensorboard 中)可视化由 Faster-RCNN(如 Resnet101_coco)提出的区域建议.有什么办法吗? 解决方案 您可以在评估期间(即在运行 object_detection/eval.py 脚本时)在 tensorboard 中可视化检测到的对象,您需要添加num_visualizations 配置文
..
我有一个看起来像这样的输入图像: 请注意,有 6 个带有黑色边框的框.我需要检测每个盒子的位置(左上角编码).通常我会使用类似 模板匹配但每个盒子的内容(黑色边框内的彩色区域)是不同的. 是否有模板匹配版本可以配置为忽略每个框的内部区域?算法更适合这种情况吗? 另请注意,我必须处理几种不同的分辨率...因此框的实际大小会因图像而异.也就是说,比例(长度与宽度)将始终相同.
..
我正在关注本教程:https://tensorflow-object-detection-api-tutorial.readthedocs.io/en/latest/training.html 在其中,它在文件 pipeline.config 中有以下片段: fine_tune_checkpoint_type:“检测";# 将此设置为“检测";因为我们想要训练完整的检测模型 进一步调查得
..
我正在研究使用 tensorflow 训练一个对象检测网络,我查看了 TF2 模型动物园.我注意到那里的模型明显少于目录/models/research/models/中的模型,包括为 jetson xavier 开发的带有 ssdlite 的 mobiledet. 澄清一下,自述文件说有一个带有 ssdlite 的 mobildet gpu,并且提供了在 COCO 上训练的模型和检查点,但
..
我正在研究实时服装检测.所以我像这样从 GitHub 借用了代码:https://github.com/rajkbharali/实时衣服检测但是 (H, W) = frame.shape[:2]:following error in last line.我应该在哪里修复它? 从时间导入睡眠将 cv2 导入为 cv导入参数解析导入系统将 numpy 导入为 np导入 os.path从 glob 导
..
假设我有两个盒子数组,每个盒子的形状分别为 (?, b1, 4) 和 (?, b2, 4) (处理? 作为未知的批量大小): box1: [[[1,2,3,4], [2,3,4,5], [3,4,5,6]...]...]box2: [[[4,3,2,1], [3,2,5,4], [4,3,5,6]...]...] (以上数字任意设定) 我想: 在每批中,对于box1中的每个框A,在
..
我正在使用此代码作为对象即使在大多数图片中有 0-5 个对象,它也会输出 100 个框.在 250X250 图像上检测需要 5 秒.减少检测对象的数量是否会加快这个过程,如果是,有没有办法做到这一点? 解决方案 从逻辑上讲是可以的,我不能说具体是多少.您可以将模型重新训练到您感兴趣的较少对象.对于训练,您还将指定对扩展名为 *.pbtxt 的文件感兴趣的对象,该文件包含指定的对象列表.
..