caffe相关内容

在哪里可以找到经过训练的模型(例如googleNet的输出)到真实类标签之间的标签图?

每个人,我都是咖啡新手.目前,我尝试使用从模型动物园下载的训练有素的GoogleNet对某些图像进行分类.但是,网络的输出似乎是矢量,而不是真实的标签(如狗,猫). 在哪里可以找到训练有素的模型之间的标签图,例如googleNet的输出到其真实类标签? 谢谢. 解决方案 如果您从git中获得了caffe,则应该在data/ilsvrc12文件夹中找到一个外壳脚本get_ilsvrc_aux ..

Caffe S型交叉熵损失

我正在使用S型交叉熵损失函数解决由解决方案 在此示例中,"SigmoidCrossEntropyLoss"层的输入是完全连接层的输出.实际上,对"InnerProduct"层的输出值没有任何限制,它们的范围可以为[-inf, inf]. 但是,如果仔细检查"SigmoidCrossEntropyLoss",您会发现它包含"SigmoidCrossEntropyLoss"替换为简单的"Sigmo ..

何时在Caffe中使用就地图层?

通过将底部和顶部blob设置为相同,我们可以告诉Caffe进行“就地"计算以节省内存. 目前,我知道我可以安全地使用就地"BatchNorm","Scale"和"ReLU"图层了(请告诉我我是否错了).尽管其他层似乎存在一些问题(此问题似乎是一个例子). 何时在Caffe中使用就地图层? 反向传播如何工作? 解决方案 正如您所指出的,就地图层通常不能“开箱即用"地工作. 对 ..

如何编写预加载的caffe python数据层?

在执行其他处理如何写asyncronous数据层,以预加载批次?是否有一些示例代码?谢谢 该系统的整体图是:你必须 取值异步数据加载和喂入带队列.然后,该层从队列中读取batch_size个项目,并通过forward()函数将网络馈入. import caffe, multiprocessing class Loader(multiprocessing.Process): def _ ..

修改多个输入的Caffe C ++预测代码

我实现了 Caffe C ++示例的修改版本,效果非常好,速度非常慢,因为它只能一张一张地接受图像.理想情况下,我想将200张图像的向量传递给Caffe,并为每张图像返回最佳预测.我从Fanglin Wang那里得到了伟大的帮助,并实施了他的一些建议,但是仍难以解决如何从每个图像中检索最佳结果的问题. 现在将Classify方法传递给cv::Mat对象(变量input_channels)的向 ..

如何使用caffe和OpenBLAS使用多CPU内核训练NN

我最近正在学习深度学习,我的朋友推荐我咖啡.在使用OpenBLAS安装它之后,我遵循了文档中的教程 MNIST任务.但是后来我发现它非常慢,并且只有一个CPU内核正在工作. 问题是我的实验室中的服务器没有GPU,所以我不得不使用CPU. 我用Google搜索了此页面,并得到了一些类似于此的页面.我尝试export OPENBLAS_NUM_THREADS=8和export OMP_NU ..

Caffe中的多标签回归

我根据kaggle面部关键点竞争从输入图像中提取30个面部关键点(x,y). 我如何设置caffe以运行回归并产生30维输出? Input: 96x96 image Output: 30 - (30 dimensions). 我如何相应地设置咖啡?我正在使用EUCLIDEAN_LOSS(平方和)来获取回归输出.这是一个使用caffe的简单Logistic回归模型,但无法正常工作.外 ..
发布时间:2020-05-04 09:09:07 AI人工智能

什么是“参数"?咖啡层?

最近,我遇到了 "Parameter" caffe中的图层. 似乎此层将其内部参数blob暴露给"top". 该层用于什么用途? 您可以举一个用法示例吗? 解决方案 此层是在请求请求中引入的 此层仅保存用户定义形状的参数blob,并将其共享为单个顶部. 这正是您所期望的.这是在问题#1474 的上下文中引入的,该问题基本上建议处理类似正常的底部斑点.为了说明为什么这样做有 ..

什么是“批量标准化"?为什么要使用它?它如何影响预测?

最近,许多深度架构都使用“批处理规范化"进行训练. 什么是“批量标准化"?它在数学上有什么作用?它以什么方式帮助培训过程? 在培训期间如何使用批量标准化?是插入模型的特殊层吗?我需要在每层之前进行标准化还是仅进行一次标准化? 假设我使用批量归一化进行训练.这会影响我的测试时间模型吗?我应该在我的“部署"网络中用其他/等效层/操作替换批处理规范化吗? 关于批处理规范化的问题仅 ..

完全卷积网络训练图像大小

我正在尝试使用TensorFlow复制用于语义分割的全卷积网络(FCN)的结果. 我坚持将训练图像输入到计算图中.全卷积网络使用VOC PASCAL数据集进行训练.但是,数据集中的训练图像大小各异. 我只想问一下他们是否对训练图像进行了预处理,以使其具有相同的大小,以及它们如何对图像进行了预处理.如果不是,他们是否只是将一批不同大小的图像送入FCN?是否可以在TensorFlow中将一 ..

Caffe或convnets中的批量大小是多少

我认为批量大小仅是为了提高性能.批次越大,就可以同时计算出更多的图像来训练我的网络.但是我意识到,如果我改变批量大小,我的净精度会更好.所以我不明白什么是批量大小.有人可以解释一下什么是批量大小吗? 解决方案 使用随机梯度训练Caffe -下降(SGD):也就是说,在每次迭代时,它会计算训练数据的参数的(随机)梯度,并沿梯度的方向移动(=更改参数). 现在,如果您写出梯度w.r.t.训练 ..

Caffe:如果只有一小部分内存可以怎么办?

我正在尝试训练一个非常大的模型.因此,我只能将非常小的批处理大小放入GPU内存中.使用小批量生产的结果非常嘈杂的梯度估计. 我该怎么做才能避免这个问题? 解决方案 您可以在求解器参数中更改iter_size. Caffe在每个随机梯度下降步骤中的iter_size x batch_size实例上累积梯度. 因此,当由于内存有限而无法使用大的batch_size时,增加iter_size也 ..

Caffe中的"weight_decay"元参数是什么?

查看示例 'solver.prototxt' ,发布在BVLC/caffe git上,其中有一个训练元参数 weight_decay: 0.04 此meta参数是什么意思?我应该给它赋什么值? 解决方案 weight_decay元参数控制神经网络的正则化项. 在训练期间,将正则化项添加到网络的损耗中以计算反向传播梯度. weight_decay值确定此正则项在梯度计算中的主 ..

来自Caffe | solver.prototxt值设置策略

在来自Caffe,我想实现一个完全卷积网络的语义分割.我想知道有没有设置你的值以下的超参数的具体策略: test_iter test_interval iter_size max_iter 这是否取决于您训练集所拥有的图像数量?如果是这样,怎么办? 1.训练集大小,您拥有的训练样例总数,我们称此数量为T. 的 2.培训批次大小:在单个批次中一起处理的培训示例的数量,通常由 ..

解决班级不平衡问题:扩大对损失和sgd的贡献

(此问题的更新已添加.) 我在根特,比利时的大学研究生;我的研究是关于深度卷积神经网络的情感识别.我使用的来自Caffe 框架来实现细胞神经网络. 最近,我遇到了有关班级失衡的问题.我使用的是9216个训练样本. 5%的阳性标记的(1),将剩余的样品标记为负(0). 我正在使用 SigmoidCrossEntropyLoss 层来计算损失.训练时,即使经过几个纪元,损失也会减少, ..