caffe相关内容
我在 Python 上安装 Caffe 深度学习框架时遇到问题: 当我在 caffe 目录中运行 make 命令时,它说 hdf5.h:没有那个目录 我已经完成的步骤: 更新和升级我的 Ubuntu 服务器 安装 Python 2.7 拥有基于 http://caffe.berkeleyvision.org/install_apt 的所有依赖项.html
..
我有一个包含多个标签的图像数据集;数据集中有 100 个类,每个图像有 1 到 5 个标签与之关联. 我正在按照以下 URL 中的说明进行操作: https://github.com/BVLC/caffe/issues/550 它说我需要生成一个文本文件,列出图像及其标签,如 /home/my_test_dir/picture-foo.jpg 0/home/my_test_di
..
我想设计一个占用GPU资源不超过Alexnet的卷积神经网络.我想用FLOPs来测量它,但我不知道如何计算它.请问有什么工具可以做到吗? 解决方案 有关在线工具,请参阅 http://dgschwend.github.io/netscope/#/editor .对于 alexnet,请参见 http://dgschwend.github.io/netscope/#/preset/alexn
..
我正在尝试使用 caffe 来实现 Schroff、Kalenichenko 和 Philbin “FaceNet: A Unified Embedding for人脸识别与聚类",2015. 我是新手,那么如何计算反向传播中的梯度? 解决方案 我假设你将损失层定义为 层{名称:“tripletLoss"类型:“TripletLoss"底部:“锚"底部:“积极"底部:“负面"...
..
在解析了很多关于在 Python 中构建 Caffe 层的链接后,我仍然难以理解一些概念.请有人澄清他们吗? 此处解释了网络的 Blob 和权重 Python 结构:查找 Caffe conv-filter 相对于输入的梯度. 此处解释了网络和求解器结构:caffe/pycaffe 备忘单?. 定义 python 层的示例在这里:pyloss.py 上的 git. 此处的层测试:git
..
我想用python建立一个caffe CNN,使用caffe.NetSpec()接口.虽然我看到我们可以将测试网络放在solver.prototxt中,但我想把它写在不同阶段的model.prototxt中.例如,caffe model prototxt 实现了两个数据层不同阶段: 层{名称:“数据"类型:“数据"顶部:“数据"顶部:“标签"包括 {阶段:火车}....}层 {名称:“数据"类型
..
我需要一些帮助,从带有图像和标签文本文件的普通目录中为 siamese CNN 创建 CaffeDB.最好是用 python 的方式来做. 问题不是遍历目录并制作成对的图像.我的问题更多是从这些对中制作 CaffeDB. 到目前为止,我只使用 convert_imageset 从图像目录中创建 CaffeDB. 感谢帮助! 解决方案 为什么不简单地使用旧的 convert_image
..
我想根据训练期间“当前预测"与“正确标签"的接近/远近来缩放每个图像的损失值.例如,如果正确的标签是“猫",而网络认为它是“狗",那么惩罚(损失)应该小于网络认为它是“汽车"的情况. 我的做法如下: 1- 我定义了标签之间距离的矩阵, 2- 将该矩阵作为底部传递到 "softmaxWithLoss" 层, 3- 将每个 log(prob) 乘以这个值,根据 forward_cpu
..
想找一个caffe python数据层的例子来学习.我知道 Fast-RCNN 有一个 python 数据层,但它相当复杂,因为我不熟悉物体检测. 所以我的问题是,是否有一个 python 数据层示例,我可以在其中学习如何定义我自己的数据准备程序? 例如,如何定义一个python数据层做更多的数据增强(如平移、旋转等)比caffe "ImageDataLayer". 非常感谢 解决
..
有谁知道 Caffe 是否有一个不错的 LSTM 模块?我从 russel91 的 github 帐户中找到了一个,但显然包含示例和解释的网页消失了(以前是 http://apollo.deepmatter.io/ --> 它现在只重定向到 github 页面,没有示例或解释不再). 解决方案 我知道 Jeff Donahue 使用咖啡.他还在 CVPR 2015 期间提供了一个很好的教程
..
我想使用带有矢量标签的 caffe,而不是整数.我查了一些答案,似乎 HDF5 是更好的方法.但是后来我遇到了如下错误: accuracy_layer.cpp:34] 检查失败:outer_num_ * inner_num_ == bottom[1]->count() (50 vs. 200) 标签数量必须与预测数量匹配;例如,如果标签轴 == 1 且预测形状为 (N, C, H, W),则
..
我有一个 caffemodel 文件,其中包含 ethereon 的 caffe-tensorflow 转换实用程序不支持的层.我想生成我的 caffemodel 的 numpy 表示. 我的问题是,如何将 caffemodel 文件(我也有 prototxt,如果有用的话)转换为 numpy 文件? 附加信息:我安装了 python、带有 python 接口的 caffe 等.我显然
..
我在用caffe做回归,我的test.txt和train.txt文件是这样的: /home/foo/caffe/data/finetune/flickr/3860781056.jpg 2.0/home/foo/caffe/data/finetune/flickr/4559004485.jpg 3.6/home/foo/caffe/data/finetune/flickr/3208038920.j
..
以下是用于训练预训练模型的 train.Prototxt 文件. 名称:“TempWLDNET"层 {名称:“数据"类型:“图像数据"顶部:“数据"顶部:“标签"包括 {阶段:火车}变换参数{镜子:真实作物大小:224mean_file: "mean.binaryproto"}图像数据参数{来源:“train.txt"批量大小:25新高度:256新宽度:256}}层 {名称:“数据"类型:“图
..
我只是想了解如何使用 Caffe.为此,我只是查看了示例文件夹中不同的 .prototxt 文件.有一个选项我不明白: #学习率策略lr_policy: "inv" 可能的值似乎是: “固定" "inv" “步骤" “多步" “一步一步" "poly" 有人可以解释一下这些选项吗? 解决方案 如果你查看 /caffe-master/src/caffe/proto/
..
这是我的train.prototxt.这是我的 deploy.prototxt. 当我想加载我的部署文件时,出现此错误: 文件“./python/caffe/classifier.py",第 29 行,在 __init__ 中in_ = self.inputs[0]IndexError:列表索引超出范围 所以,我删除了数据层: F1117 23:16:09.485153 21910 i
..
在论文中 Girshick, R Fast-RCNN(ICCV 2015),“3.1 Truncated SVD for fast detection"部分,作者建议使用SVD 技巧来减少全连接层的大小和计算时间. 给定一个训练模型(deploy.prototxt 和 weights.caffemodel),我如何使用这个技巧来替换一个全连接层截断的? 解决方案 一些线性代数背景
..
我正在尝试训练一个非常大的模型.因此,我只能将非常小的批量装入 GPU 内存.使用小批量会导致非常嘈杂的梯度估计. 我该怎么做才能避免这个问题? 解决方案 您可以更改求解器参数中的 iter_size.Caffe 在每个随机梯度下降步骤中累积 iter_size x batch_size 个实例的梯度.因此,当由于内存有限而无法使用大batch_size时,增加iter_size也可以获
..
我从头开始训练 GoogLeNet 模型.但这并没有给我带来可喜的结果. 作为替代方案,我想在我的数据集上对 GoogLeNet 模型进行微调.有谁知道我应该遵循哪些步骤? 解决方案 假设您正在尝试进行图像分类.这些应该是微调模型的步骤: 1.分类层 原始分类层“loss3/classifier"; 输出 1000 个类别的预测(它的 mum_output 设置为 1000)
..
我使用 C++ 将我的图像数据转换为 caffe db 格式(leveldb、lmdb)作为示例我将此代码用于 imagenet. 是否需要对数据进行混洗,我可以将我所有的正样本写入数据库,然后将所有负样本写入数据库,例如 00000000111111111,还是需要对数据进行混洗并且标签看起来应该像 010101010110101011010? caffe 如何从 DB 中采样数据,
..