AI人工智能
比如说,我想训练一个 CNN 来检测图像是否是汽车. 选择“非汽车"数据集有哪些最佳做法或方法? 因为这个数据集可能是无限的(基本上任何不是汽车的东西) - 是否有关于数据集需要多大的指南?它们是否应该包含与汽车非常相似但又不是汽车的物体(飞机、船等)? 解决方案 与所有监督机器学习一样,训练集应该反映模型将要使用的真实分布.神经网络基本上是一个函数逼近器.您的实际目标是近似真
..
我在 jupyter notebook 上做一个手语检测项目.运行实时检测代码时遇到如下错误: OpenCV(4.5.1) C:\Users\appveyor\AppData\Local\Temp\1\pip-req-build-1drr4hl0\opencv\modules\highgui\src\window.cpp:651:错误:(-2:Unspecified error) 功能未实现
..
我在 python 中使用了 opencv 的 har 级联人脸检测器 (cv.HaarDetectObjects). 例如: faces = cv.HaarDetectObjects(灰度、级联、存储、1.2、2、cv.CV_HAAR_DO_CANNY_PRUNING, (50,50))对于面中的 f:打印(f) 这将以这种形式打印检测列表: ((174, 54, 114, 11
..
作为我项目的一部分,我想构建一个光照不变的人脸认证系统.约束是我只有 1 个注册图像,但我可以选择自适应地将身份验证图像添加到注册文件夹.面部图像几乎是正面的.任何人都可以建议一种算法或 2-3 种算法的组合,以使我的面部验证系统对照明具有鲁棒性. 我已经使用 DoG 尝试了 LBP 及其变体,还有一个来自 MATLAB INface 工具箱的工具箱,它有大约 20 种不同的照明归一化算法.
..
我按照 codelab TensorFlow For Poets 使用迁移学习inception_v3.它生成 retrained_graph.pb 和 retrained_labels.txt 文件,可用于在本地进行预测(运行 label_image.py). 然后,我想将此模型部署到 Cloud ML Engine,以便进行在线预测.为此,我必须将 retrained_graph.pb
..
我使用形状上下文直方图作为特征描述符来编码剪影图像.为了帮助调试,我想查看覆盖在轮廓图像上的形状上下文 logpolar 箱(从边缘图像中获取的样本点). 其中一个点的外观示例如下: 我知道如何显示圆圈(径向分格),但我在生成角度分格(线)时遇到了困难. 给定一组角度,我如何绘制类似于示例图像中所示的线段? 解决方案 这样做: >> 图>> 轴>> 坚持>> 半径 =
..
我想在主图像中查找/检查子图像/模板图像并想知道它的坐标, 我已经使用下面链接中给出的代码来实现它, 检查 iOS 中图像中是否存在子图像 如果模板图像的大小与较大图像的匹配部分的大小完全相同,则可以正常工作. 但是,如果子图像被缩小或放大而不是匹配较大图像的一部分,则无法正确给出结果. 解决方案 使用 OpenCV 特征检测.它比模板匹配更准确.. 请尝试使
..
我正在收集图像检测器算法的结果.所以基本上我所做的是,从一组图像(大小为 320 x 480)中,我会通过它运行一个 64x128 的滑动窗口,并在一些预定义的比例下运行. 我明白: True Positives = 当我检测到的窗口与真实情况(带注释的边界框)重叠(在定义的交叉点大小/质心内)时 误报 = 当算法给我正窗口时,这超出了事实. False Negatives = 当
..
例如,在我创建了操作后,通过操作输入批处理数据并运行操作,tf.train.batch 是否会自动输入另一批处理数据到会话? 我问这个是因为 tf.train.batch 有一个 allow_smaller_final_batch 属性,这使得最终批次可以以小于指定批次大小的大小加载.这是否意味着即使没有循环,下一批也可以自动喂食?从教程代码中我很困惑.当我加载单个批次时,我实际上得到一个批
..
我最近一直在研究 C++ 中隐马尔可夫模型的实现.我想知道是否可以使用任何现有的用 C++ 编写的 HMM 库来使用使用动作识别(使用 OpenCV)? 我要避免“重新发明轮子"! 是否可以使用 Torch3Vision 即使(看起来)它被设计为从事语音识别工作? 我的想法是,如果我们可以将特征向量转换为符号/观察值(使用矢量量化 - Kmeans 聚类),我们可以将这些符号用于
..
我的机器中有 3 个 GTX Titan GPU.我使用 cifar10_train.py 运行 Cifar10 中提供的示例并得到以下输出: I tensorflow/core/common_runtime/gpu/gpu_init.cc:60] 无法启用从设备序号 0 到设备序号 1 的对等访问我 tensorflow/core/common_runtime/gpu/gpu_init.cc:
..
我目前的项目是建立一个人脸认证系统.我的限制是:在注册期间,用户提供单个图像进行训练.但是,我可以在身份验证时添加和使用用户提供的图像. 我想在训练中添加更多图像的原因是,用户环境不受限制 - 不同的照明条件,与相机的不同距离,来自不同的 MP 相机.唯一的缓解是姿势几乎是正面的. 我认为,上述问题类似于广泛使用的面部标记应用程序.任何人都可以提出一种自适应和智能地使用可用图像的方法吗
..
我正在研究 FLANN,一个用于近似最近邻搜索的库. 对于 LSH 方法,它们表示一个对象(搜索空间中的点),如一个无符号整数数组.我不确定他们为什么这样做,而不是将一个点简单地表示为一个双精度数组(这将表示一个点在多维向量空间中).也许是因为 LSH 用于二进制特征?有人可以分享更多关于可能使用 unsigned int in这个案例?如果每个功能只需要 0 和 1,为什么要使用 unsi
..
我正在使用稀疏数据的特征值分解来实现 PCA.我知道 matlab 实现了 PCA,但它可以帮助我在编写代码时理解所有技术细节.我一直在遵循 here,但与内置函数 princomp 相比,我得到了不同的结果. 任何人都可以看看它并指出正确的方向. 代码如下: 函数 [mu, Ev, Val ] = pca(data)% mu - 平均图像% Ev - 矩阵,其列是对应于特征的特征向
..
我正在训练一个 YOLO 模型,我有这种格式的边界框:- x1, y1, x2, y2 =>前 (100, 100, 200, 200) 我需要将其转换为 YOLO 格式,如下所示:- X、Y、W、H =>0.436262 0.474010 0.383663 0.178218 我已经计算了中心点 X、Y、高度 H 和重量 W.但仍然需要将它们转换为前面提到的浮点数. 解决方案 YO
..
在计算机视觉和物体检测中,常用的评估方法是mAP.它是什么,如何计算? 解决方案 引用来自上述Zisserman 论文 - 4.2 结果评估(第 11 页): 首先,“重叠标准"定义为大于 0.5 的交集.(例如,如果一个预测框满足这个关于真实框的标准,它被认为是一个检测).然后使用这种“贪婪"方法在 GT 框和预测框之间进行匹配: 一种方法输出的检测被分配给ground tr
..
任何人都可以帮助我吗?我得到以下错误.我使用谷歌 Colab.如何解决这个错误? 大小不匹配,m1:[64 x 100],m2:[784 x 128] 在/pytorch/aten/src/TH/generic/THTensorMath.cpp:2070 下面的代码我正在尝试运行. 导入火炬从火炬进口nn导入 torch.nn.functional 作为 F从 torchvisio
..
我正在关注 this 学习 TensorFlow Slim 的教程,但是在为 Inception 运行以下代码时: 将 numpy 导入为 np导入操作系统将张量流导入为 tf导入 urllib2从数据集导入 imagenet从网络导入开始从预处理导入 inception_preprocessing苗条 = tf.contrib.slim批量大小 = 3image_size = inceptio
..
我正在尝试使用预训练模型.这就是问题发生的地方 模型不应该采用简单的彩色图像吗?为什么它需要 4 维输入? RuntimeError Traceback(最后一次调用)在()3334 # 通过模型前向传递数据--->35 输出 = 模型(数据)36 init_pred = output.max(1, keepdim=Tr
..
我正在使用 libSVM.假设我的特征值采用以下格式: instance1 : f11, f12, f13, f14实例2:f21、f22、f23、f24实例3:f31、f32、f33、f34实例4:f41、f42、f43、f44.........................................实例N:fN1、fN2、fN3、fN4 我认为有两种缩放可以应用. 缩放每个
..