object-detection-api相关内容
我正在尝试绘制一个连续的图表来评估我的模型。 Tensorboard(v2.4.1)成功绘制了每一步的不同损失。 然而,它只绘制了评估的最后一步,我的评估曲线上只有一个点。 这是我的拉伸板视图: Tensorboard show only the last step's evaluation 我使用以下命令运行tensorboard:tensorboard --logdir=models/
..
我试着关注 https://tensorflow-object-detection-api-tutorial.readthedocs.io/en/latest/training.html#training-the-model 在Google CoLab 一切顺利,构建了pycoTools,使用OBJECT_DETACTION/Packages/tf2/setup.py进行设置,使用objec
..
如何从SSD中找到预测的图像ID和Box,我正在使用GitHub link这里是我想要保存图像ID和Box的测试函数 def test(loader, net, criterion, device): net.eval() running_loss = 0.0 running_regression_loss = 0.0 running_classification_loss = 0.0 nu
..
我定义了一个具有824个类的pascal_label_map.pbtext,用create_pascal_tf_record.py从我的JPEG数据集创建TFRecord文件,使用Pascal VOC样式的批注。 脚本似乎正确地生成了这些TFRecords(例如,我检查了pascal_label_map.pbtext中的所有类都出现在批注中,并且每个JPEG都带有正确的批注)。但当我开始objec
..
我正在尝试从Person类获取边界框的像素坐标(标记为: Mcoco_Label_map.pbtxt item { name: "/m/01g317" id: 1 display_name: "person" } 目前我正在通过 将边界框和标签放到图像上 input_tensor = tf.convert_to_tensor(np.expand_dims(image_np
..
我已经使用TensorFlow 2对象检测API训练了SSD ResNet V1模型。然后我想在C++代码中将此模型与OpenCV一起使用。 首先,经过培训,我有三个文件: 检查点 CKPT-101.数据-00000/00001 检查点-101.index 请注意,我没有.meta文件,因为它不是生成的。 然后我使用对象检测API中的exporter_main_v2.p
..
我已经从TensorFlow Object Detection APIfaster_rcnn_inception_resnet_v2_atrous_coco训练了大约10个类的对象检测模型。当我运行model_main.py文件评估模型时,它似乎只给出了所有10个类的平均准确率(AP)和平均召回率(AR),如下所示: Average Precision (AP) @[ IoU=0.50:0
..
我正在自定义数据集(即车牌数据集)上训练 tensorflow 对象检测 API 模型.我的目标是使用 tensorflow lite 将此模型部署到边缘设备,因此我无法使用任何 RCNN 系列模型.因为,我无法将任何 RCNN 系列对象检测模型转换为 tensorflow lite 模型(这是 tensorflow 对象检测 API 的限制).我正在使用 ssd_mobilenet_v2_coc
..
我在训练中使用 Tensorflow 的对象检测 API. 在哪个文件中,定义了冻结层以在训练中对模型进行微调.我需要在微调中尝试更改冻结层. 例如,如果我使用 Resnet50配置,在哪里可以更改冻结层? 解决方案 你当然可以做到. 通过阅读 proto 文件,训练中,有一个名为 freeze_variables 的字段,这应该是一个包含您要冻结的所有变量的列表,例
..
我有一台 mac,我使用的是 tensorflow 2.0、python 3.7.我正在关注为实时应用程序创建对象检测模型的教程.但我收到以下错误: “下载/模型/研究/object_detection/object_detection_tutorial.py",第 43 行,在od_graph_def = tfod_graph_def = tf.GraphDef() Attribut
..
机器:MacBook Air M1 2020 操作系统:macOs BigSur 11.4 venv 的 Python 版本:Python 3.8.6 Tensorflow 版本:ATF Apple Tensorflow 0.1a3 Pip 版本:21.2.4 我已经使用 本指南. 现在,我的 pip 列表是这样的. 包版本--------------
..
我喜欢使用 tensorflow 从 faster rcnn 只训练 RPN 网络.在caffe中,我只训练过RPN. 在 tensorflow 中,本教程展示了如何训练自定义网络.然后其他教程在这里讨论了如何使用来自 modelzoo 的模型进行训练.> 所以对于我的情况,只训练 RPN 部分,哪种方法适合我?说如果我遵循定义 CNN 网络的第一种方法,我如何为 转移学习 加载 预训练模
..
问题 我正在使用 TF 的对象检测 API 训练和部署实例分割模型.我能够成功训练模型,将其打包到 TF Serving Docker 映像(latest 标记截至 2020 年 10 月),并通过 REST 接口处理推理请求.但是,推理请求返回的数据量非常大(数百 Mb).当推理请求和处理不在同一台机器上发生时,这是一个大问题,因为所有返回的数据都必须通过网络. 有没有办法减少输出数
..
你好. 我目前在我自己的数据集上使用 tensorflow 对象检测 API(带有 Faster Rcnn),对于我的一些标签,我已经识别出很可能被检测为误报的对象,并且我知道该 API 使用硬样本挖掘,所以我要做的是将包含这些硬对象的图像引入训练,以便矿工可以将它们作为硬底片. 关注此对话github https://github.com/tensorflow/models/issu
..
系统信息 操作系统平台和发行版:CentOS 7.5.1804 TensorFlow 安装自:pip install tensorflow-gpu TensorFlow 版本:tensorflow-gpu 1.8.0 CUDA/cuDNN 版本:9.0/7.1.2 GPU 型号和内存:GeForce GTX 1080 Ti,11264MB 重现的确切命令: python
..
我正在关注 object_detection_tutorial.ipynb 教程. 这是代码(我只放了需要的部分,其余代码与笔记本相同): my_results = [] # 我添加了这个,一个包含检测到的类的列表PATH_TO_LABELS = 'D:\\TensorFlow\\models\\research\\object_detection\\data\\oid_v4_label_
..
我正在关注本教程:https://tensorflow-object-detection-api-tutorial.readthedocs.io/en/latest/training.html 在其中,它在文件 pipeline.config 中有以下片段: fine_tune_checkpoint_type:“检测";# 将此设置为“检测";因为我们想要训练完整的检测模型 进一步调查得
..
我正在研究使用 tensorflow 训练一个对象检测网络,我查看了 TF2 模型动物园.我注意到那里的模型明显少于目录/models/research/models/中的模型,包括为 jetson xavier 开发的带有 ssdlite 的 mobiledet. 澄清一下,自述文件说有一个带有 ssdlite 的 mobildet gpu,并且提供了在 COCO 上训练的模型和检查点,但
..
我正在使用 Tensorflow 对象检测 API,并且已经训练了两个单独的模型(FRCNN Inception V2 和 SSD Mobilenet V2).在我的代码流中,当两个模型都经过训练后,我需要导出推理图.以下是相同的代码: # 依赖将张量流导入为 tf导入全局导入操作系统进口重新从 google.protobuf 导入 text_format从 object_detection 导
..
我用谷歌搜索了一下,但只找到了有关启用数据增强的问题. 我遵循了这个教程但是使用我自己的数据集(只有一个类).我已经对我的数据集进行了数据增强,所以我从 pipeline.config 中删除了相关的行. 现在我的管道看起来像这样 model {固态硬盘{num_classes: 1image_resizer {fixed_shape_resizer {高度:640宽度:640}}特
..