caffe相关内容

找到带有蟒蛇cmake前缀的Boost-python3

DLDR如何将cmake指向Boost-python3库?Cmake不会自动检测到它。 我正在尝试使用提供的cmake为Python3.6生成caffe。 我的系统规格: Python 3.6.5,蟒蛇定制(64位) Mac OS 10.13.6 无CUDA 我已使用BREW安装Boost,例如 brew install boost boost-python3 ..
发布时间:2022-06-06 15:24:06 C/C++开发

如何提高cv2.dnn.readNetFromCaffe()的性能net.ward()需要更多时间(7到10秒/帧)才能给出结果

我已经使用net = cv2.dnn.readNetFromCaffe(protoFile, weightsFile),然后使用net.forward()遍历实时视频帧以获得每个帧的输出。 但net.forward()每帧需要7到10秒才能得出结果。请帮助我提高性能(减少net.forward()中的处理时间)。 表示:从第1步到第2步每帧需要7到10秒。 (下面的代码中提到了步 ..

如何在 caffe 中训练/测试我自己的数据集?

我从 Caffe 开始,mnist 示例运行良好. 我将火车和标签数据作为 data.mat.(我有 300 个训练数据,其中 30 个特征和标签是保存在 data.mat 中的 (-1, +1)). 但是,我不太明白如何使用 caffe 来实现自己的数据集? 有没有分步教程可以教我? 非常感谢!!!!任何建议将不胜感激! 解决方案 我认为将数据从 Matlab 传输到 ..
发布时间:2022-01-21 12:34:21 其他开发

三重损失反向传播梯度公式是什么?

我正在尝试使用 caffe 来实现 Schroff、Kalenchenko 和 Philbin "FaceNet: A Unified Embedding for人脸识别与聚类",2015. 我是新手,如何计算反向传播中的梯度? 解决方案 我假设你将损失层定义为 层{名称:“三元组损失"类型:“TripletLoss"底部:“锚"底部:“积极"底部:“负面"...} 现在您需要计 ..

如何验证 CuDNN 安装?

我已经搜索了很多地方,但我得到的只是如何安装它,而不是如何验证它是否已安装.我可以验证我的 NVIDIA 驱动程序已安装,并且 CUDA 已安装,但我不知道如何验证 CuDNN 已安装.非常感谢您的帮助,谢谢! 附言. 这是针对 caffe 实现的.目前,在没有启用 CuDNN 的情况下一切正常. 解决方案 安装 CuDNN 只需要将文件放在 CUDA 目录中.如果您在安装 caf ..
发布时间:2022-01-09 17:54:48 其他开发

caffe/pycaffe 的备忘单?

有谁知道是否有所有重要的 pycaffe 命令的备忘单?到目前为止,我仅通过 Matlab 界面和终端 + bash 脚本使用 caffe. 我想转向使用 ipython 并完成 ipython 笔记本示例.但是,我发现很难对 Python 的 caffe 模块中的所有功能进行概述.(我对 python 也很陌生). 解决方案 pycaffe 测试 和这个文件是python编码接口的 ..
发布时间:2021-12-31 23:23:24 其他开发

用于 Caffe 的 Python 或 Matlab?

我将致力于在 Caffe 中实现 DQN 和来自 Google DeepMind 的最新扩展. 为此,我将编写一个模拟器(代替 Atari 模拟器)来为代理创建培训体验. 我的问题是:Caffe 的 Matlab 或 Python 接口中哪个最成熟且运行良好? 为此任务在 Python 和 Matlab 之间进行选择还有其他考虑吗? 应该注意的是,我在 Python 开发方面比 ..
发布时间:2021-12-31 17:11:07 Python

Caffe:如果两层反向传播梯度到同一个底部 blob 会发生什么?

我想知道如果我有一个生成底部 blob 的层,该层会被两个后续层进一步消耗,这两个层都会在反向传播阶段生成一些梯度来填充 bottom.diff.两个梯度会加起来形成最终的梯度吗?或者,只有其中一个可以存活?在我的理解中,Caffe 层需要在用一些计算的梯度填充之前将 bottom.diff 设置为全零,对吗?memset 会清除其他层已经计算的梯度吗?谢谢! 解决方案 使用多个损失层并不 ..

Caffe 输出层数精度

我修改了 Caffe MNIST 示例 以对 3 类图片.我注意到的一件事是,如果我将输出层的数量指定为 3,那么我的测试准确度会急剧下降——下降到 40% 的低范围.但是,如果我 +1 并且有 4 个输出层,则结果在 95% 范围内. 我在我的数据集中添加了一个额外的图像类(所以 4 个类)并注意到同样的事情 - 如果输出层的数量与类的数量相同,那么结果是可怕的,如果它是相同的 +1,然后效果 ..

softmax 版本的triplet loss 的梯度计算

我一直在尝试在 中描述的Caffe中实现三元组损失的softmax版本Hoffer 和 Ailon,使用三元组网络的深度度量学习,ICLR 2015. 我已经尝试过这个,但我发现很难计算梯度,因为指数中的 L2 不是平方. 有人可以帮我吗? 解决方案 使用现有的 caffe 层实现 L2 规范可以为您省去所有麻烦. 这是在 caffe 中为“bottom"s x1 和 ..

我在哪里可以找到经过训练的模型(如 googleNet 的输出)与真实类别标签之间的标签映射?

大家,我是咖啡新手.目前,我尝试使用从模型动物园下载的经过训练的 GoogleNet 对一些图像进行分类.然而,网络的输出似乎是一个向量而不是真正的标签(如狗、猫).我在哪里可以找到经过训练的模型(如 googleNet 的输出)与其真实类别标签之间的标签映射?谢谢. 解决方案 如果你从 git 得到 caffe 你应该在 data/ilsvrc12 文件夹中找到一个 shell 脚本 g ..

如何防止caffe中特定层的反向计算

我想在 caffe 中禁用某些卷积层中的反向计算,我该怎么做? 我使用了 propagate_down 设置,但是发现它适用于 fc 层而不是卷积层. 请帮忙~ 第一次更新:我在 test/pool_proj 层设置了 propagate_down:false.我不希望它向后(但其他层向后).但是从日志文件来看,该层仍然需要向后. 第二次更新:让我们表示一个深度学习模型,从输入 ..

Caffe sigmoid 交叉熵损失

我将 sigmoid 交叉熵损失函数用于多标签分类问题,如 本教程.然而,在他们的教程结果和我的结果中,输出预测都在 (-Inf, Inf) 范围内,而 sigmoid 的范围是 [0, 1].sigmoid 是否只在 backprop 中处理?也就是说,前向传递不应该压缩输出吗? 解决方案 在这个例子中,"SigmoidCrossEntropyLoss" 层的输入是一个全连接层的输出.实 ..

ImageDataLayer 和 LMDB 数据层之间的速度

Caffe 支持 LMDB 数据层和 ImageDataLayer.从某些数据集创建 LMDB 数据库需要一些时间和大量空间.相比之下,ImageDataLayer 只使用一个 txt 文件,非常方便.我的问题是,这两种层之间的速度差异大吗?非常感谢! 解决方案 LMDB 旨在更快地从给定的键值 获取数据.此外,数据以未压缩的格式存储,这使得机器可以轻松读取数据并将其直接传递给GPU进行处 ..
发布时间:2021-12-27 17:30:32 其他开发

神经网络有没有通用的格式

不同的团队使用不同的库来训练和运行神经网络(caffe、torch、theano...).这使得共享变得困难:每个库都有自己的格式来存储网络,并且每次要测试其他团队的工作时都必须安装一个新库. 我正在寻找解决方案以减少繁琐:- 是否有首选(共享?)格式来存储神经网络?- 是否有可以帮助处理不同类型网络/或将一种类型转换为另一种类型的服务或库? 谢谢! 解决方案 是否有首选( ..
发布时间:2021-12-27 17:29:01 其他开发

什么时候在 Caffe 中使用就地图层?

通过将底部和顶部的 blob 设置为相同,我们可以告诉 Caffe 进行“就地"计算以保持内存消耗. 目前我知道我可以安全地使用就地 "BatchNorm"、"Scale" 和 "ReLU" 层(请让我知道我是否错了).虽然其他层似乎有一些问题(这个问题似乎是一个例子). 何时在 Caffe 中使用就地图层? 它如何与反向传播一起工作? 解决方案 正如您所注意到的,就地图层通 ..

如何使用预加载编写caffe python数据层?

如何在执行其他处理的同时编写异步数据层来预加载批处理?有没有一些示例代码?谢谢 解决方案 有几种方法可以实现您想要的.我会在这里尝试勾画一个选项. 系统的整体视图是:你有n Loaders 异步加载数据和馈送队列.然后该层从队列中读取 batch_size 项并在 forward() 函数中馈入网络. 导入caffe,多处理类加载器(multiprocessing.Process) ..