caffe相关内容

Caffe编译时没有看到hdf5.h

我在 Python 上安装 Caffe 深度学习框架时遇到问题: 当我在 caffe 目录中运行 make 命令时,它说 hdf5.h:没有那个目录 我已经完成的步骤: 更新和升级我的 Ubuntu 服务器 安装 Python 2.7 拥有基于 http://caffe.berkeleyvision.org/install_apt 的所有依赖项.html ..
发布时间:2021-12-27 16:56:25 Python

三重态损失反向传播梯度公式是什么?

我正在尝试使用 caffe 来实现 Schroff、Kalenichenko 和 Philbin “FaceNet: A Unified Embedding for人脸识别与聚类",2015. 我是新手,那么如何计算反向传播中的梯度? 解决方案 我假设你将损失层定义为 层{名称:“tripletLoss"类型:“TripletLoss"底部:“锚"底部:“积极"底部:“负面"... ..

在 python 中构建自定义 Caffe 层

在解析了很多关于在 Python 中构建 Caffe 层的链接后,我仍然难以理解一些概念.请有人澄清他们吗? 此处解释了网络的 Blob 和权重 Python 结构:查找 Caffe conv-filter 相对于输入的梯度. 此处解释了网络和求解器结构:caffe/pycaffe 备忘单?. 定义 python 层的示例在这里:pyloss.py 上的 git. 此处的层测试:git ..
发布时间:2021-12-27 16:55:12 Python

caffe:模型定义:使用 caffe.NetSpec() 编写不同阶段的相同层

我想用python建立一个caffe CNN,使用caffe.NetSpec()接口.虽然我看到我们可以将测试网络放在solver.prototxt中,但我想把它写在不同阶段的model.prototxt中.例如,caffe model prototxt 实现了两个数据层不同阶段: 层{名称:“数据"类型:“数据"顶部:“数据"顶部:“标签"包括 {阶段:火车}....}层 {名称:“数据"类型 ..
发布时间:2021-12-27 16:52:28 其他开发

如何从图像目录中为 siamese 网络创建 CaffeDB 训练数据

我需要一些帮助,从带有图像和标签文本文件的普通目录中为 siamese CNN 创建 CaffeDB.最好是用 python 的方式来做. 问题不是遍历目录并制作成对的图像.我的问题更多是从这些对中制作 CaffeDB. 到目前为止,我只使用 convert_imageset 从图像目录中创建 CaffeDB. 感谢帮助! 解决方案 为什么不简单地使用旧的 convert_image ..

根据“badness"缩放损失值在咖啡馆

我想根据训练期间“当前预测"与“正确标签"的接近/远近来缩放每个图像的损失值.例如,如果正确的标签是“猫",而网络认为它是“狗",那么惩罚(损失)应该小于网络认为它是“汽车"的情况. 我的做法如下: 1- 我定义了标签之间距离的矩阵, 2- 将该矩阵作为底部传递到 "softmaxWithLoss" 层, 3- 将每个 log(prob) 乘以这个值,根据 forward_cpu ..

caffe 数据层示例一步一步

想找一个caffe python数据层的例子来学习.我知道 Fast-RCNN 有一个 python 数据层,但它相当复杂,因为我不熟悉物体检测. 所以我的问题是,是否有一个 python 数据层示例,我可以在其中学习如何定义我自己的数据准备程序? 例如,如何定义一个python数据层做更多的数据增强(如平移、旋转等)比caffe "ImageDataLayer". 非常感谢 解决 ..
发布时间:2021-12-27 16:50:35 其他开发

Caffe 的 LSTM 模块

有谁知道 Caffe 是否有一个不错的 LSTM 模块?我从 russel91 的 github 帐户中找到了一个,但显然包含示例和解释的网页消失了(以前是 http://apollo.deepmatter.io/ --> 它现在只重定向到 github 页面,没有示例或解释不再). 解决方案 我知道 Jeff Donahue 使用咖啡.他还在 CVPR 2015 期间提供了一个很好的教程 ..

如何以 HDF5 格式提供 caffe 多标签数据?

我想使用带有矢量标签的 caffe,而不是整数.我查了一些答案,似乎 HDF5 是更好的方法.但是后来我遇到了如下错误: accuracy_layer.cpp:34] 检查失败:outer_num_ * inner_num_ == bottom[1]->count() (50 vs. 200) 标签数量必须与预测数量匹配;例如,如果标签轴 == 1 且预测形状为 (N, C, H, W),则 ..
发布时间:2021-12-27 16:50:18 Python

caffe 和 pycaffe 报告的准确率不同

以下是用于训练预训练模型的 train.Prototxt 文件. 名称:“TempWLDNET"层 {名称:“数据"类型:“图像数据"顶部:“数据"顶部:“标签"包括 {阶段:火车}变换参数{镜子:真实作物大小:224mean_file: "mean.binaryproto"}图像数据参数{来源:“train.txt"批量大小:25新高度:256新宽度:256}}层 {名称:“数据"类型:“图 ..

Caffe 中的“lr_policy"是什么?

我只是想了解如何使用 Caffe.为此,我只是查看了示例文件夹中不同的 .prototxt 文件.有一个选项我不明白: #学习率策略lr_policy: "inv" 可能的值似乎是: “固定" "inv" “步骤" “多步" “一步一步" "poly" 有人可以解释一下这些选项吗? 解决方案 如果你查看 /caffe-master/src/caffe/proto/ ..

如何使用截断的 SVD 减少全连接(“InnerProduct")层

在论文中 Girshick, R Fast-RCNN(ICCV 2015),“3.1 Truncated SVD for fast detection"部分,作者建议使用SVD 技巧来减少全连接层的大小和计算时间. 给定一个训练模型(deploy.prototxt 和 weights.caffemodel),我如何使用这个技巧来替换一个全连接层截断的? 解决方案 一些线性代数背景 ..

Caffe:如果只有一小批适合内存,我该怎么办?

我正在尝试训练一个非常大的模型.因此,我只能将非常小的批量装入 GPU 内存.使用小批量会导致非常嘈杂的梯度估计. 我该怎么做才能避免这个问题? 解决方案 您可以更改求解器参数中的 iter_size.Caffe 在每个随机梯度下降步骤中累积 iter_size x batch_size 个实例的梯度.因此,当由于内存有限而无法使用大batch_size时,增加iter_size也可以获 ..

GoogLeNet 模型的微调

我从头开始训练 GoogLeNet 模型.但这并没有给我带来可喜的结果. 作为替代方案,我想在我的数据集上对 GoogLeNet 模型进行微调.有谁知道我应该遵循哪些步骤? 解决方案 假设您正在尝试进行图像分类.这些应该是微调模型的步骤: 1.分类层 原始分类层“loss3/classifier"; 输出 1000 个类别的预测(它的 mum_output 设置为 1000) ..

Caffe 需要打乱数据吗?

我使用 C++ 将我的图像数据转换为 caffe db 格式(leveldb、lmdb)作为示例我将此代码用于 imagenet. 是否需要对数据进行混洗,我可以将我所有的正样本写入数据库,然后将所有负样本写入数据库,例如 00000000111111111,还是需要对数据进行混洗并且标签看起来应该像 010101010110101011010? caffe 如何从 DB 中采样数据, ..