caffe相关内容

训练过程中出现Nans的常见原因

我已经注意到,在训练期间经常出现NAN. 通常情况下,它似乎是在内部产品/完全连接或卷积层爆炸中通过权重引入的. 是否由于梯度计算被炸开而发生?还是因为权重初始化(如果这样,为什么权重初始化会产生这种效果)?还是可能是由于输入数据的性质引起的? 这里的首要问题很简单:在训练过程中发生NAN的最常见原因是什么?其次,有什么方法可以消除这种情况(为什么它们起作用)? 解决方案 好 ..

caffe中的"Python"层是什么?

Caffe的图层类型为"Python". 例如,此图层类型可用作损失层. 在其他情况下,它用作输入层. 此图层类型是什么? 该层如何使用? 解决方案 修剪和Bharat 的答案给出了"Python"层的总体目的:通用层,它是用python而不是c ++实现的. 我打算将此答案用作使用"Python"层的教程. "Python"层的教程 什么是"Python ..

convert_imageset.cpp指南

我对机器学习/python/ubuntu比较陌生. 我有一组.jpg格式的图像,其中一半包含我想学习的功能,另外一半则不需要.我在寻找一种将它们转换为所需lmdb格式的方法时遇到了麻烦. 我有必要的文本输入文件. 我的问题是,谁能在ubuntu终端中提供有关如何使用convert_imageset.cpp的逐步指南? 谢谢 解决方案 Caffe convert_im ..

Shai的LSTM实现生成的.prototxt文件中的DataLayer放置

关于@Shai在用于Caffe的LSTM模块中提供的答案,其中caffe.NetSpec()用于及时显式展开LSTM单元进行训练. 使用此代码实现,为什么"DummyData"层或用作输入X的任何数据层为何出现在prototxt文件中t0时间步骤的末尾,恰好在"t1/lstm/Mx"之前?我不明白... 因此需要一种操作(剪切/粘贴). 解决方案 Shai 的NetSpec L ..

如何从特征向量或单词生成句子?

我将VGG 16层Caffe模型用于图像标题,每个图像有多个标题.现在,我想根据这些标题(单词)生成一个句子. 我在LSTM上的一篇论文中读到,我应该从训练网络中删除SoftMax层,并将4096个特征向量从fc7层直接提供给LSTM. 我是LSTM和RNN的新手. 我应该从哪里开始?有没有教程显示如何通过序列标记生成句子? 解决方案 AFAIK BVLC/caffe的主分支尚不支持 ..

用于Caffe的LSTM模块

有人知道对于Caffe是否存在一个不错的LSTM模块?我从russel91的github帐户中找到了一个帐户,但显然包含示例和说明的网页消失了(以前 http://apollo.deepmatter. io/->现在仅重定向到 github页面,其中没有示例或说明不再). 解决方案 我知道 Jeff Donahue 使用以下方法在LSTM模型上工作咖啡.在CVPR 2015期间,他还提供了 ..

需要帮助来了解SigmoidCrossEntropyLossLayer的Caffe代码,以解决多标签丢失问题

在了解Caffe函数 SigmoidCrossEntropyLossLayer 时,我需要帮助,这是逻辑激活的交叉熵错误. 基本上,具有N个独立目标的单个示例的交叉熵误差表示为: - sum-over-N( t[i] * log(x[i]) + (1 - t[i]) * log(1 - x[i] ) 其中,t是目标,为0或1,而x为输出,由i索引. x当然需要进行物流激活. ..

是否可以在BLAS库之间切换而无需重新编译程序?

例如我可以拥有地图集, OpenBlas , MKL 同时安装在我的Ubuntu 14.04上,并且无需重新编译即可在它们之间进行切换 Caffe ? 解决方案 当然,您必须安装它们,并在Ubuntu/Debian上发出命令 update-alternatives --config libblas.so.3 您将获得编号列表的替代方案,并可以在它们之间轻松切换 链接: ht ..
发布时间:2020-05-01 09:39:37 服务器开发

如何将cuDNN更新到较新的版本?

cuDNN安装手册说 所有平台 将cuDNN存档提取到您选择的目录,以下称为. 然后,按照以下特定于平台的说明进行操作. LINUX cd 导出LD_LIBRARY_PATH =`pwd`:$ LD_LIBRARY_PATH 通过在编译中添加-I来添加到构建和链接过程 行,然后将-L -lcudnn链接到您的链接行. 似乎只是将pwd添加到了LD_LIBRARY ..
发布时间:2020-05-01 09:37:03 服务器开发

如何使用截断的SVD减少完全连接的("InnerProduct"`)层

在论文中 Girshick,R 快速RCNN (ICCV 2015),"3.1截断的SVD以加快检测速度"部分,作者建议使用 SVD 技巧可减少全连接层的大小和计算时间. 给定受过训练的模型(deploy.prototxt和weights.caffemodel),如何使用此技巧将完整连接的层替换为截断的层? 解决方案 一些线性代数背景 奇异值分解( SVD )是将任何矩阵W分解为三 ..

Bekeley Caffe命令行界面

如果您使用的是自定义的python层-并假设您使用python正确编写了该类-假设该类的名称为"my_ugly_custom_layer";然后您在linux命令行界面中执行caffe, 如何确保caffe知道如何找到为图层编写类的文件?您是否将.py文件放置在与train.prototxt相同的目录中? 或 如果您使用python编写了自定义类,是否需要使用python包装器接 ..
发布时间:2020-04-30 07:20:36 Python

用于图像分类和语义分割的图像预处理

就针对不同类型的图像相关作品(例如图像分类,语义分割)的深度学习模型的训练而言,需要执行什么样的预处理工作? 例如,如果我想训练网络进行语义分割,是否需要将图像值(通常表示为nd数组)缩放到[0,1]范围,还是将其保持在[0,255]范围?谢谢. 解决方案 完成的工作很少,但实际上并没有总会完成的预处理集. 以下是一些示例: 减去均值图像, 除以方差(较不常见) 标准 ..
发布时间:2020-04-25 11:04:27 其他开发

应用MAX池时Caffe和Keras之间的区别

我正在一个项目中,将keras json模型转换为caffe prototxt caffe支持任意填充值 keras(在tensorflow之上)支持'same'和'valid'值 对于caffe中的任何填充值,我们可以在keras中手动添加ZeroPadding图层,然后应用“有效"方案以获取相同的输出尺寸 来自 https://github.com/MarcBS/keras/b ..
发布时间:2020-04-25 09:54:54 其他开发

不可训练参数的定义是什么?

模型中不可训练参数的定义是什么? 例如,当您构建自己的模型时,其默认值为0,但当您要使用初始模型时,它将变为其他值而不是0.其背后的原因是什么? 解决方案 不可训练的参数是一个广泛的主题.一个简单的例子就是考虑任何特定的NN模型及其架构的情况. 说,我们已经在Keras中设置了您的网络定义,您的体系结构类似于256->500->500->1.根据这个定义,我们似乎有一个回归模型 ..
发布时间:2020-04-25 09:50:50 其他开发

Caffe/Pycaffe速查表?

有人知道所有重要的pycaffe命令是否都有备忘单吗? 到目前为止,我仅通过Matlab界面和终端+ bash脚本使用caffe. 我想转向使用ipython并研究ipython笔记本示例.但是,我发现很难获得python caffe模块内部的所有功能的概述. (我也是python的新手.) 解决方案 pycaffe测试和此文件是python编码接口的主要网关. /p> 首先,您想 ..
发布时间:2020-04-25 06:28:43 其他开发

NameError:未定义名称“get_ipython”

我正在使用Caffe框架并使用PyCaffe接口。我正在使用从转换IPython Notebook 00-classification.ipynb 获得的Python脚本,以便通过训练有素的ImageNet模型测试分类。但是脚本中的任何 get_ipython()语句都会出现以下错误: $ python python / my_test_imagenet.py Traceback(最近 ..
发布时间:2018-11-14 18:58:09 Python

图像平均减法与BatchNormalization - Caffe

我对Caffe中的图像预处理有疑问。 当我在我的caffemodel中使用BatchNormalization Layer时,我是否仍然需要在训练阶段开始之前的所有训练中的预处理步骤“图像均值减法”?或者这是在BatchNormalization Layer中完成的? 非常感谢=) 解决方案 图像平均减法与BatchNormalization有所不同,用于不同的目的。 Bat ..