object-detection相关内容
我使用过API (https://github.com/tensorflow/models/tree/master/object_detection) 然后, 我如何知道边界框的长度? 我在 github 上实时使用了 Tutorial IPython notebook. 但是我不知道用哪个命令来计算盒子的长度. 解决方案 只是为了扩展 Beta 的答案:
..
首先,很抱歉文章的长度. 我正在开展一个项目,根据叶子的图像对植物进行分类.为了减少数据的方差,我需要旋转图像,以便茎在图像底部水平对齐(270 度). 目前我在哪里... 到目前为止我所做的是创建一个阈值图像,然后从那里找到轮廓并在对象周围绘制一个椭圆(在许多情况下,它无法涉及整个对象,因此省略了茎......),之后那,我创建了 4 个区域(带有椭圆的边缘)并尝试计算最小值区
..
安装 Tensorflow 对象检测 API 并按照所有说明进行操作后,我开始使用自己的数据集进行训练.很快,该程序开始使用所有 RAM 并终止该进程.我已经阅读了有关此主题的所有可用帖子,但似乎没有人有答案.这是试图找出导致此问题的原因的另一种尝试. 计算机规格: 12 GB 内存 Ubuntu 14.04 LTS tensorflow-gpu NVIDIA GTX 1070
..
我正在开展一个项目,该项目要求仅识别视频或来自摄像机的实时流中的人物.我目前正在使用 python 的 tensorflow 对象识别 API,并且我尝试了不同的预训练模型和冻结推理图.我只想识别人和汽车,所以我不需要我的神经网络来识别所有 90 个基于 mobilenet 或 rcnn 的冻结推理图的类,因为这似乎减慢了过程,而这 90 个中的 89 个类我的项目中不需要类.我必须训练自己的模型
..
我正在从事一个研究项目,我需要在该项目中实时估计拾取和放置任务中物体的 6DOF 姿态.必须实时估计姿势,并且对象可以一个在另一个之上并且完全相同,因此我必须获得顶部对象的位置和方向.问题是对象是相同的(PPVC 块,在建筑领域),但好消息是它们的形状非常规则. 那么如何将 RGBD Camera 点云的单个 2D 图像中已知的 3D CAD 模型与顶部的对象进行比较,从而可以实时获得 6D
..
我正在运行与 Tensorflow 对象检测 API(object_detection_tutorial.ipynb) 打包在一起的示例程序.程序运行良好,没有错误,但边界框根本没有显示. 我的环境如下: Windows 10 Python 3.6.3 可能是什么原因? 关于 曼尼什 解决方案 请在检测动物园中尝试更新的 SSD 模型:https://g
..
我在尝试训练模型时遇到该错误: (tensorflow1) C:\tensorflow1\models\research\object_detection>python train.py --logtostderr --train_dir=training/--pipeline_config_path=training/faster_rcnn_inception_v2_pets.config回溯
..
我有一个应用程序,我必须在其中检测场景中某些项目的存在.这些项目可以旋转并稍微缩放(更大或更小).我试过使用关键点检测器,但它们不够快速和准确.所以我决定首先使用 Canny(或更快的边缘检测算法)检测模板和搜索区域中的边缘,然后匹配边缘以找到找到的匹配的位置、方向和大小. 所有这些都需要在不到一秒的时间内完成. 我尝试过使用 matchTemplate() 和 matchShape(
..
我有一个栅格: r 我从栅格中选择前 10% 并更改为二进制: r_10=quantile(r,.90) 从这个子集栅格 r_10 中,所有绿色像素都具有相同的值 1.我想改变这些值,方法是将像素或像素组识别为对象,并用新的标签标记每个新对象ID.新栅格应具有与此示例图像类似的值: 某些对象可以有多个像素,并且它们都应该具有相同的对象 ID(例如数字 8). 如何在 R 中编
..
我想知道如何在 Tf2 对象检测 API 的每个检查点训练和评估模型.在文档中,他们建议先训练然后评估模型 训练 python object_detection/model_main_tf2.py \--pipeline_config_path=${PIPELINE_CONFIG_PATH} \--model_dir=${MODEL_DIR} \--alsologtostderr 评估
..
我正在使用 Microsoft 的 CustomVision.ai 构建自定义视觉应用程序. 我正在使用 本教程. 当您在物体检测项目中标记图像时,您需要使用标准化坐标指定每个标记物体的区域. 我有一个 XML 文件,其中包含有关图像的注释,例如名为sample_1.jpg: sample_1.jpg4104003
..
我正在研究使用 Faster-RCNN 模型和 Tensorflow 对象检测 API 的徽标检测算法.我的数据集是按字母顺序排列的(所以有一百个阿迪达斯标志,然后是一百个苹果标志等等).我希望它在训练时被洗牌. 我在配置文件中添加了一些值: train_input_reader:{洗牌:真的queue_capacity:一些值min_after_dequeue :其他一些值} 不管我输
..
我使用 TensorFlow 对象检测 API 训练了 SSD 如此处所述.它生成 ckpt、meta 和 index 文件.为了在我的图像上运行它,我尝试检查演示代码.它要求将模型转换为冻结图.我尝试将我的模型转换为冻结的推理图,如此处所述.在那个程序中,我必须提供输出节点名称.我无法弄清楚此处必须使用的 SSD 模型中节点的名称.请帮忙.我试过 'num_detections:0', 'det
..
在配置文件中,我们给出了默认的增强选项,如下所示. data_augmentation_options {random_horizontal_flip {}} 但我想知道它如何与训练图像给出的边界框(地面实况框)值一起工作.所以我查看了 preprocessor.py, random_horizontal_flip() 采用 'boxes=None' 参数.由于配置文件中没有给出参数,
..
我正在关注 Google 在 TPU 帖子上的对象检测,但在训练方面遇到了障碍. 查看作业日志,我可以看到 ml-engine 为各种软件包运行了大量 pip 安装,配置了 TPU,然后提交了以下内容: 运行命令:python -m object_detection.model_tpu_main--model_dir=gs://{MY_BUCKET}/train --tpu_zone us
..
我想运行 tensorflow 对象检测评估协议之一 [1].我是新手,从网页上我无法理解我必须在哪里添加 metrics_set 配置.例如: EvalConfig.metrics_set='pascal_voc_detection_metrics' 我尝试更改 eval.proto 文件中的值,其中 metrics_set 设置为值 8.有谁知道这是否是更改它的正确位置?我认为更改此值没有
..
我正在尝试训练一个模型来检查图像、识别指定的对象并告诉我它的坐标(我什至不需要看到对象周围的正方形). 为此,我使用 Tensorflow 的对象检测,而我所做的大部分工作都是在查看本教程: 如何训练对象在 Windows 10 上使用 TensorFlow (GPU) 的多个对象检测分类器 但是有些事情发生了变化,可能是因为更新,然后我不得不自己做一些事情.我实际上可以训练模型
..
我正在使用来自 tensorflow 对象检测 API 的本地训练模型.我正在使用 faster_rcnn_inception_resnet_v2_atrous_coco_11_06_2017 检查点.我重新训练了一个 1 类模型并将其导出到 SavedModel python object_detection/export_inference_graph.py \--input_type im
..
正在浏览最近发布的 tensorflow/models/../object_detection 模型,特别是更快的 r-cnn. 论文中提到了 4 步交替训练,你会在这里 训练 RPN,然后冻结 RPN 层, 训练 RCNN,然后冻结 RCNN 层, 训练RPN,然后冻结RPN层 训练 RCNN. 据我所知,在第 2 阶段 = RCNN,RPN 确实被冻结: 如果 sel
..
我使用 train.py 和 eval.py 成功地训练了一个带有自定义示例的对象检测模型.并行运行这两个程序,我能够在训练期间在 tensorboard 中可视化训练和评估指标. 然而,这两个程序都被移到了 legacy 文件夹中,并且 model_main.py 似乎是运行训练和评估的首选方式(通过只执行一个进程).但是,当我使用以下 pipeline.config 启动 model_m
..