yolo相关内容
我的YOLO模型适用于检测瓶子、人、手机、背包等物体。但我想让我的模型检测到戒指、手镯或头盔(在目前的yolo模型中不存在的对象)。没有GPU,我可以做一个定制的物体检测yolo模型吗?涉及的风险是什么?(如果有)。 我的系统是Windows 10家庭单语版,内存为8 GB。 推荐答案 是,您可以这样做。 只需在DarkNet文件夹的Makefile中更改以下行- G
..
我想为我的定制对象数据集训练YOLO模型。我在不同的网站上到处看到它,每个人都在谈论应该使用GPU来训练和运行YOLO定制模型。 但是,由于我没有图形处理器,我很困惑该怎么办?因为我买不起这样的图形处理器。此外,我读到关于谷歌可乐,但我不能使用它,我想使用我的模型在离线系统。 在GitHub看到程序中使用的YOLO的系统使用率后,我很害怕: https://github.com/AhmadYahy
..
我已经构建了一个数据集来训练YOLOv4,并且我拥有YOLO格式的所有标签(我使用了LabelImg)。现在我想用相同的数据集训练SSD,因此我需要Pascal VOC格式的标签。我已经看到了一些方法来进行相反的转换(Voc到Yolo),但不是我正在寻找的方法。由于我有数以千计的图像,我希望找到一种方法来自动执行整个过程,而不必逐个查看每个图像/标签。 有没有人有办法解决这个问题? 提
..
我通过 conda 和 cuda 7.5 安装了 pytorch conda install pytorch=0.3.0 cuda75 -c pytorch>>>进口火炬>>>torch.cuda.is_available()真的 除此之外我没有为 cuda 进行任何其他安装,因为它看起来像 pytorch 带有 cuda 现在,我正在尝试设置 yolo2 https://github.
..
我正在训练一个 YOLO 模型,我有这种格式的边界框:- x1, y1, x2, y2 =>前 (100, 100, 200, 200) 我需要将其转换为 YOLO 格式,如下所示:- X、Y、W、H =>0.436262 0.474010 0.383663 0.178218 我已经计算了中心点 X、Y、高度 H 和重量 W.但仍然需要将它们转换为前面提到的浮点数. 解决方案 YO
..
我正在开发一个对象检测模型来使用 YOLO 检测船舶.我想使用 COCO 数据集.有没有办法只下载带有注释的图像? 解决方案 要下载特定类别的图片,可以使用 COCO API.这是一个 demo 笔记本,通过这个和其他用法.整体流程如下: 安装pycocotools 从 COCO 数据集 下载其中一个注释 json 下面是一个示例,说明我们如何下载包含 person 的图像
..
我通过 conda 和 cuda 7.5 安装了 pytorch conda install pytorch=0.3.0 cuda75 -c pytorch>>>进口火炬>>>torch.cuda.is_available()真的 除此之外,我没有为 cuda 进行任何其他安装,因为看起来 pytorch 带有 cuda 现在,我正在尝试设置 yolo2 https://github.c
..
我试图了解 Darknet 的工作原理,我正在查看 yolov3-tiny 配置文件,特别是 第 13 层(第 107 行). [卷积]批量标准化=1过滤器=256大小=1步幅=1垫=1激活=泄漏 内核的大小为 1x1,步长为 1,填充也为 1.当我使用darknet加载网络时,说明输出的宽高和输入的一样: 13 conv 256 1 x 1/1 13 x 13 x1024 ->13 x 1
..
我正在使用 YOLOv3 来检测视频中的汽车.我下载了代码中使用的三个文件 coco.names、yolov3.cfg 和 yolov3.weights,它们针对 80 种不同类别的对象进行了训练被检测到.代码工作但非常慢,每帧需要超过 5 秒.我相信如果我减少类的数量,它会运行得更快.我可以从coco.names中删除不需要的类,但很遗憾,我看不懂yolov3.cfg中的所有内容,甚至看不懂yo
..
我正在尝试使用 yolo 制作对象检测软件,但此错误正在弹出,我很迷茫谁能帮我 !!(代码不完整,如果这篇文章中有任何错误,我很抱歉,因为我是 Stackoverflow 新手).教程来自 这里 回溯(最近一次调用最后一次):文件“d:/opencv/objdetect_yolo.py",第 66 行,在 中.findobj(输出,img)findobj 中的文件“d:/ope
..
>py yolo.py --video-path='F:/Data_Science/Python37/Scripts/YOLO/videos/lowres.mp4'回溯(最近一次调用最后一次): 中的文件“yolo.py",第 88 行net = cv.dnn.readNetFromDarknet(FLAGS.config, FLAGS.weights)cv2.error: OpenCV(4.0.
..
我需要在 NVIDIA JETSON T2 中运行我的模型,所以我将我的工作 yoloV3 模型转换为 tensorRT(.trt 格式)(https://towardsdatascience.com/have-you-optimized-your-deep-learning-model-before-deployment-cdc3aa7f413d) 提到的这个链接帮助我将 Yolo 模型转换为
..
我开发了 flutter 应用程序和 yolov3 自定义对象检测器.两个模块都是独立的.现在我想将这些模块组合到一个项目中,但无法弄清楚如何在我的颤振应用程序中使用该自定义对象检测器的训练权重.任何人都可以帮助我进行这种集成吗? 解决方案 我不知道你是在使用 Flutter 构建 android 应用还是 iOS. 无论如何,要能够在您的 Flutter 应用程序上使用自定义训练的
..
我正在使用 AlexeyAB 的暗网分支的 YOLOv3 和 YOLOv3-Tiny.我知道图像大小必须是 32 的倍数.batch 除以 subdivisions 决定了将并行处理的图像数量. 比如默认的yolov3.cfg文件中batch size为64,细分为16,表示一次加载4张图片,取其中的 16 个小批次完成一次迭代. 我没有看到的内容 在维基中: 这些值有限制吗?它
..
我正在开展一个检测物体的项目,我正在使用 Anaconda 提取 yolo v3 检测到的物体的图像.这就是我安装 Python 并运行 yolo v3 的方式:https://github.com/统治gt09/yolov3workflow/tree/master/2_YoloV3_Execute问题是我对 Python 一无所知.是否可以在视频运行时提取图像并将它们存储在单独的文件中?
..
我正在尝试在我的 android 项目中使用 yolo4,但我在转换时遇到了问题.来自:https://pypi.org/project/yolov4/ 的代码在 Google-Colab,尽管我在 Jupyter 笔记本上的 CUDA 版本存在一些问题. 我从以下位置收到转换错误: yolo.save_as_tflite(“yolov4.tflite") 错误很长,我不确定我应该在这里
..
Yolov3-tiny-416.tflite 是从 yolov3-tiny.weights 创建的 yolov3 tiny 模型的 tflite 模型我曾尝试从谷歌在 android 中提供的 ML kit Vision 模块中使用它.在回购:https://github.com/googlesamples/mlkit/tree/master/android/vision-quickstart
..
所以我需要使用我自己的数据集重新训练 Tiny YOLO.我使用的模型可以在这里找到:keras-yolo3. 我开始训练时遇到了多个优化器错误,添加了错误代码以防止混淆.我注意到即使它应该使用 GPU,训练也会变慢,经过深入研究后,我发现这不是使用 GPU 进行训练.我应该注意,在我用于学习训练的另一个较小的网络上使用 GPU,所以从那一边一切都正确设置,并且当我进行训练时,它们没有这种类
..
我正在使用 YOLOv3 和 OpenCV 和 Python 进行实时对象检测.它运作良好.目前我尝试捕获检测到的物体图像并显示在烧瓶中.有人知道如何实现这个功能吗?希望有人能帮忙.我根据此链接获得了教程 https://medium.com/analytics-vidhya/real-time-object-detection-using-yolov3-with-opencv-and-pytho
..
我正在使用 darknet 在我的自定义数据集上使用 YOLOv4 检测对象.对于我使用的视频检测: ./darknet 检测器演示数据/obj.data yolo-obj.cfg yolo-obj_best.weights -ext_output video.mp4 -out-filename video_results.mp4 这为我的视频提供了为每个检测打印的边界框.但是,我想为
..