object-detection相关内容
我已经使用 Tensorflow 的对象检测 Api 使用自定义数据集训练了一个更快的 rcnn 模型.随着时间的推移,我想继续使用其他图像(每周收集)更新模型.目标是优化准确性并随着时间的推移对新图像进行加权. 这里有一些替代方案: 将图像添加到之前的数据集并训练一个全新的模型 将图像添加到之前的数据集并继续训练之前的模型 仅包含新图像的新数据集并继续训练之前的模型 以下是
..
我是新来的.我最近开始研究对象检测并决定使用 Tensorflow 对象检测 API.但是,当我开始训练模型时,它并没有像它应该的那样显示全局步骤,尽管它仍在后台进行训练. 详情:我正在服务器上进行培训并在 Windows 上使用 OpenSSH 访问它.我通过收集图片并标记它们来训练自定义数据集.我使用model_main.py 训练它.此外,直到几个月前,API 还有些不同,直到最近才更
..
对象检测笔记本演示了如何模型 在 COCO 数据集 可用于检测测试图像上的对象.但是,笔记本中的模型返回 COCO 集中所有类别的检测对象的框.如何使用代码返回只有一类对象的框?IE.如何获取模型确定的对象的框,例如人? 解决方案 我刚刚自己实施了解决方案. 检查笔记本中的 def filter_boxes 函数 https://github.com/fera0013/Traffic
..
我正在使用 Tensorflow 对象检测 API(github.com/tensorflow/models/tree/master/object_detection) 完成一项对象检测任务.现在我在使用 Tensorflow Serving(tensorflow.github.io/serving/) 训练的检测模型提供服务时遇到问题. 1. 我遇到的第一个问题是关于将模型导出到可处理文件
..
我在自定义数据集上尝试 tensorflow 对象检测,由于某种原因,我的模型没有学习任何东西这是我尝试过的列表 我尝试从 Oxford-IIIT Pet Dataset 训练宠物数据集,如 此处.它按预期工作 现在我关注了本教程来训练我自己的数据集(用于测试我只是使用猴子的图像) 但不幸的是我的模型没有学到任何东西 信息:我在谷歌可以平台上进行培训,如本教程.我的配置管道
..
我已经更新到 Tensorflow 1.9 &对象检测 API 的最新大师.在运行以前运行良好的培训/评估课程时(我认为是 1.6 版),培训似乎按预期进行,但我只得到评估 &一张图片(第一张)的指标. 在 Tensorboard 中,图像被标记为“Detections_Left_Groundtruth_Right".评估步骤本身也发生得非常快,这让我相信这不仅仅是 Tensorboard
..
我正在使用 Tensorflow 对象检测 API 并研究 pretrainedd ssd-mobilenet 模型.有没有办法为每个 bbox 提取移动网络的最后一个全局池作为特征向量?我找不到保存此信息的操作名称. 我已经能够根据 github 上的示例提取检测标签和 bbox: image_tensor = detection_graph.get_tensor_by_name('i
..
我尝试使用 Tensorflow 的对象检测 API 来训练模型.我正在使用更快的 rcnn resnet101 的示例配置(https://github.com/tensorflow/models/blob/master/object_detection/samples/configs/faster_rcnn_resnet101_voc07.config). 以下代码是我不太明白的配置文件的一
..
我正在尝试训练一个 SSD mobilenet 检测器,用于检测显微图像中的细胞核.我在 Ubuntu 16.04 上使用 tensorflow 对象检测 API 和 tensorflow(版本 1.4)的 GPU 实现.我的输入图像是带有注释细胞核的 256x256 RGB jpg 图块. 当我开始训练时,我看到 mAP 有很大的增加,并且在大约 6k 全局步长(批量大小 12)时,我可以
..
我想在 N x N 图像的自定义数据集上训练 SSD 检测器.于是我深入Tensorflow object detection API,发现了一个SSD300x300的预训练模型在基于 MobileNet v2 的 COCO 上. 查看用于训练的配置文件时:anchor_generator 字段看起来像这样:(遵循论文) anchor_generator {ssd_anchor_gener
..
有谁知道如何获得只通过阈值的边界框坐标? 我找到了这个答案(这是一个链接),所以我尝试使用它并完成以下操作: vis_util.visualize_boxes_and_labels_on_image_array(图像,np.squeeze(盒子),np.squeeze(classes).astype(np.int32),np.squeeze(分数),类别索引,use_normalized_
..
如何提取由 Tensorflow 对象检测模型生成的对象、对象类别、图像中检测到的对象 id 的输出分数? 我想将所有这些详细信息存储到单独的变量中,以便以后可以将它们存储在数据库中. 使用与此链接中相同的代码https://github.com/tensorflow/models/blob/master/research/object_detection/object_detecti
..
如何使用 Google 的对象检测 API 的推理脚本获取生成的边界框的坐标?我知道打印 box[0][i] 返回图像中第 i 个检测的预测,但这些返回数字的确切含义是什么?有没有办法让我得到 xmin,ymin,xmax,ymax?提前致谢. 解决方案 Google 对象检测 API 以 [ymin, xmin, ymax, xmax] 格式和规范化形式返回边界框(完整说明 此处).要找
..
我使用了这个答案并编写了自己的程序,但我有一个特定的问题. 如果图像没有对象,matchTemplate 不会抛出错误,我不知道有什么方法可以检查 matchTemplate 是否找到对象, 谁能给我建议,或者给我一个检查这个的函数名. 解决方案 matchTemplate() 返回一个矩阵,其值表示您的对象以该像素为中心的概率.如果您知道对象(并且只有一个对象)在那里,您所要做的就
..
参考 object_detection_tutorial.ipynb.我想知道是否可以为目录中的所有图像运行. 而不是编写一个 for 循环并运行一个“run_inference_for_single_image(image, graph)".有没有办法对目录中的所有图像运行推理或对多个图像运行推理.链接 用于文件中的 f:如果 f.lower().endswith(('.png', '
..
我已经用自定义数据集(电池)训练了一个 SSD Mobilenet 模型.下面给出了电池的示例图片,并附上了我用来训练模型的配置文件. 当物体靠近相机(用网络摄像头测试)时,它以超过 0.95 的概率准确检测到物体,但是当我将物体移到更远的距离时,它没有被检测到.调试时,发现对象被检测到但概率较低0.35.最小阈值设置为 0.5.如果我将阈值 0.5 更改为 0.2,则会检测到对象,但会出现
..
我正在尝试在本地运行对象检测 API. 我相信我已经按照 TensorFlow 对象检测 API 文档,但是,当我尝试运行 model_main.py 时,会显示此警告并且模型无法训练.(我真的无法判断模型是否正在训练,因为该过程并未终止,但不会出现更多日志) 警告:tensorflow:Estimator 的 model_fn (.model_fn at 0x0000024BDBB3
..
我正在尝试为我的对象检测模型计算混淆矩阵.然而,我似乎偶然发现了一些陷阱.我目前的方法是将每个预测框与每个地面实况框进行比较.如果他们的 IoU > 某个阈值,我会将预测插入到混淆矩阵中.插入后,我删除预测列表中的元素并移至下一个元素. 因为我也希望将错误分类的建议插入混淆矩阵中,所以我将 IoU 低于阈值的元素视为与背景混淆.我目前的实现是这样的: def insert_into_con
..
我正在使用 Tensorflow 的对象检测框架.训练和评估工作进展顺利,但在 tensorboard 中,我只能看到评估工作的 10 张图像.有没有办法增加这个数字来查看更多图像?我尝试更改配置文件: eval_config: {num_examples: 1000最大评估:50}eval_input_reader:{tf_record_input_reader {输入路径:“xxx/eval
..
我正在尝试实现 Tensorflow 对象检测 API 示例.我正在关注 sentdex 视频以开始使用.示例代码运行完美,它还显示了用于测试结果的图像,但没有显示检测到的对象周围的边界.只显示平面图像,没有任何错误. 我正在使用此代码:此 Github 链接. 这是我运行示例代码后的结果. 另一个没有任何检测的图像. 我在这里缺少什么?代码包含在上面的链接中,没有错误日志
..