object-detection相关内容
这是这个线程的分离 TF 对象检测 API 能否用于检测两个对象,其中 1 被另一个包围/限制? 例如.脸对人 - 脸在人的范围内 解决方案 答案是肯定的.您基本上不必担心这一点——尽管出于各种原因,如果您有一个对象包含另一个几乎相同大小的对象,则算法可能会变得更具挑战性.像“人的脸"甚至“脸上的太阳镜"这样的设置应该没问题.
..
与这篇文章相关 - 裁剪图像到边界Tensorflow 对象检测 API 中的框 以下是我正在尝试更改的 tensorflow 对象检测 API 示例中的代码片段 我面临的两个问题/问题1)如果我想要第一个边界框图像,我应该在框中使用“i"的值是多少?第一个边界框是 0,第二个边界框是 1? 2) 我在尝试绘制图像时在最后一行出现错误 - plt.imshow "TypeErro
..
我正在使用代码位置计算.那么如何在终端中显示输出结果呢? #include #include #include #include #include #include #include #include #define dZ0 450#定义阿尔法40#define h 310#define d 50#define PI 3.14159265void objectsDetec
..
我使用 CreateML 来训练一个新的自定义 ObjectDector.到目前为止,一切都运行良好. 现在我只是想知道,在后台训练什么样的网络?是类似于 YOLO 还是 Mobilenet? 我在官方文档中没有找到任何内容: https://developer.apple.com/documentation/createml#overview 解决方案 有两个选项:
..
我正在使用 tensorflow 对象检测来检测护照上的特定数据,例如全名和其他内容.我已经训练了数据,一切正常.它使用边界框完美地识别周围的数据.但是,现在我只想裁剪检测到的框. 代码: 导入操作系统导入 cv2将 numpy 导入为 np将张量流导入为 tf导入系统sys.path.append("..")从 object_detection.utils 导入 label_map_ut
..
我正在使用 Tensorflow 对象检测 API 训练我自己的数据集.在训练时,我只得到损失值像这样.有没有办法在训练时或在张量板上获得 mAP 值? 解决方案 在 legacy/train.py 和 legacy/eval.py 示例用法:./火车 \--logtostderr \--train_dir=path/to/train_dir \--pipeline_config_pat
..
我是 Tensorflow 的新手,正在寻找示例对象检测代码.其中之一是 那个 我只是不知道如何获得此示例代码的图像中检测到的数组的确切坐标(位置). 谢谢 解决方案 确切答案:获取TensorFlow中的边界框坐标对象检测API教程 之后: out = vis_util.visualize_boxes_and_labels_on_image_array(图像,np.s
..
我正在使用 Tensorflow 1.15 和 Python 3.7,我是初学者.我在谷歌云上用我自己的数据集训练了一个张量流模型,如下所述:https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/tf1_training_and_evaluation.md 训练后,我的谷歌云存储桶列出
..
我是 opencv 的新手,我正在尝试通过 cv2.findContours 对视频进行形态变换来检测人物.这是代码片段.. 将 numpy 导入为 np导入 imutils将 cv2 导入为 cv导入时间帽 = cv.VideoCapture(0)而(cap.isOpened()):ret, frame = cap.read()#frame = imutils.resize(frame, wi
..
我试图在 tensorflow 的帮助下构建一个对象检测模型,但一次又一次地出现这个错误.我也试过 tf.io.Gfile ,但它没有帮助.我也在使用 tensorflow 2.2.0 版本和 tensorflow-GPU 2.2.0.这是代码, !python {SCRIPTS_PATH + '/generate_tfrecord.py'} -x {IMAGE_PATH + '/train
..
我想获取多个边界框坐标和每个边界框的类,并将其作为 JSON 文件返回. 当我从下面的代码打印 box[] 时,它的形状为 (1,300,4).box[] 中有 300 个坐标.但是我的预测图像上只有 2 个.我想要在我的图像上预测的边界框的坐标. 此外,我们如何知道哪个边界框映射到图像中的哪个类别/类? 例如,假设我在图像中有一只狗和一个人,我怎么知道哪个边界框对应于狗类,哪个
..
为对象检测安装 TensorFlow 有时很烦人,尤其是在通过微调预训练模型启动自己的对象检测项目后发生连线错误时. 如何在没有任何错误的情况下安装最新的 Tensorflow GPU 支持和最新的 CUDA/CUDNN? 解决方案 在Ubuntu 16.04上安装tensorflow-gpu对象检测api 升级系统 sudo apt-get 更新sudo apt-get 升
..
我使用tensorflow对象检测模型来检测图像上的人,但是图像上还有一些电视,电视上还有人.该模型将检测电视上的人,我如何训练模型以避免检测到电视上的人,谢谢. 解决方案 大多数电视的目标是呈现逼真的图像.可能无法检测像素代表的是真实图像还是电视图像. 在很大程度上取决于您的场景,可能有效的是训练一个单独的模型来检测电视.检测到它后,您可以将检测到的区域涂黑并将新图像提供给原始模型
..
我正在尝试使用来自 模型动物园 我在基于 tensorflow/tensorflow:2.5.0-gpu-jupyter 的 Docker 环境中运行 Tensorflow 和最近签出的 https://github.com/tensorflow/models.git 在提交 eb6687ac 我已经设置了目录结构并下载了预训练的模型: mkdir -p/workspace/pre-
..
有人可以快速解释或确认我对什么的猜测: max_detections_per_class:100max_total_detections: 100 就我而言 ssdlite_mobilenet_v2_coco.config 在第 134 和 135 行. 从预测的原始输出来看,我的猜测是这些预测总是“尝试"检测图像中的 100 个对象,而不管图像中的实际对象数量.假设只有一只猫,在
..
我正在尝试构建一个应用程序,以帮助视障人士检测阻碍他们的物体/障碍物.因此,一旦检测到对象,使用 TensorFlow 库和 android text-to-speech,应用程序就会让用户知道该对象是什么.我目前正在尝试构建 TensorFlow 提供的 Android 对象检测示例,但是我正在努力寻找边界框标签字符串的存储位置,以便在运行文本转语音时可以调用它 解决方案 我看到了Obj
..
如何在不进行迁移学习的情况下从 tensorflow 对象检测模型动物园重新训练 ssd-mobilenet-v2.我的意思是每个重量,而不仅仅是最后一层. 我是否必须构建网络架构和用于训练的脚本,或者我是否可以对 .config 文件或有关训练自定义对象检测器的文档中指定的 train.py 脚本进行一些小的更改. 这种方法会提高/恶化网络的准确性/损失吗? 在此先感谢您的帮助
..
当我尝试在 Jupyter Notebook 中运行代码时,出现导入错误(附加图像).我将路径添加到 PYTHON_PATH 并在系统路径中添加 %PYTHON_PATH%,但我仍然遇到错误 解决方案 如果您使用的是 Anaconda,您必须知道它会忽略 PYTHONPATH!.使用以下命令: conda 开发 ~/models/research/ conda 开发 ~/mod
..
我正在尝试从 Tensorflow 检测模型动物园.我在 Mobile Models 标题下使用了来自该站点的 ssd_mobilenet_v3_small_coco 模型.根据说明在 Android 上运行我们的模型,我注释掉了模型下载脚本以避免资产被覆盖://apply from:'download_model.gradle' in build.gradlecode> 文件并替换 assets
..
我正在尝试运行我在 Tensorflow github 上找到的对象检测高级 API.步骤之一是像这样编译模块: protoc object_detection\protos\*.proto --python_out=. 当我这样做时,我收到了这条消息: object_detection\protos\*.proto: 没有那个文件或目录 有什么想法吗?我运行的是 Windows 7
..