caffe相关内容
我已阅读文章“ Ubuntu安装-具有64位处理器的Ubuntu 14.04的指南”。来自Github网站( https://github.com/ tiangolo / caffe / blob / ubuntu-tutorial-b / docs / install_apt2.md )。 现在,我打开IPython测试PyCaffe是否正常工作。我输入“ ipython”命令,然后进入ipy
..
我在 tensorflow教程中已经看到,它们提供了有关不同架构的一些有趣统计数据,例如发生的操作次数等。 此模型在 的GPU训练时间之内,可以达到约86%的准确度。请参见下面以及 详细信息的代码。它包含1,068,298个可学习的参数,并且需要 约1950万次乘法运算来计算单个 图像上的推断。 如何使用Caffe实现类似的功能? 我自己如何计算或编译这些有趣的统计信息?
..
我想使用以下卷积神经网络: http://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/ 使用从 https://github.com/BVLC/caffe/tree/ Windows 适用于带有Visual Studio 2013,CUDA 7.5,cudNN 4和python支持的Windows 10。 现在,
..
我使用python创建了一个平均图像文件,并将其保存到numpy文件中。我想知道如何将这个.npy文件转换成.binaryproto文件。我正在使用此文件来使用GoogLeNet进行训练。 解决方案 您可以简单地使用numpy来创建.binaryproto和给定的caffe io函数 import caffe #avg_img是您的numpy数组,其平均数据为 blob =
..
Caffe支持LMDB数据层和ImageDataLayer。 从某些数据集创建LMDB数据库需要一些时间和大量空间。 相反,ImageDataLayer仅使用txt文件,这非常方便。 我的问题是,这两种层之间的速度差异是否很大? 非常感谢! 解决方案 LMDB 旨在更快地从中获取数据给定的键值。数据也以未压缩的格式存储,这使得机器很容易读取数据并将其直接传递给GPU进行处理。
..
有人为TensorFlow版本实现FRCNN吗? 我发现了一些相关的存储库,如下所示: 实施roi池层 基于py- Fast-rcnn repo 但对于1:假设roi池层起作用(我没有尝试过),并且需要执行以下操作: ROI数据层,例如 roidb 。 线性回归,例如 SmoothL1Loss 用于端到端培训的ROI池层后处理,应将ROI池层的结果转换为CNN进行分类。
..
位数4.0 0.14.0-rc.3 / Ubuntu(aws) 训练一个5类GoogLenet模型,每个模型中约有800个训练样本。我试图使用bvlc_imagent作为预训练模型。这些是我采取的步骤: 从 http://dl.caffe.berkeleyvision.org/bvlc_googlenet.caffemodel 并将其放在/ home / ubu
..
在tensorflow函数中 tf.nn.conv2d ,填充选项只有“ SAME”和“ VALID”。 但是在Caffe的转换层中,有 pad选项可以定义(隐式)添加到输入的每一侧的像素数。 如何在Tensorflow中实现这一点? p> 非常感谢。 解决方案 您可以使用 tf.pad()(请参见 doc )在应用 tf.nn.conv2d(...,padding =“
..
对不起,我对使用caffe采集高清数据有疑问吗?我尝试通过以下步骤在Kaggle mnist csv数据上运行示例 use h5py 转换为h5数据。 (我使用caffe-example.py进行转换) 然后修改lenet_train_test_prototxt并对其进行训练。我对这一步不知所措。 我在这里所做的唯一更改是 layer { name:“ mnist”
..
在Python上安装Caffe深度学习框架时遇到麻烦: 在以下位置运行 make 命令时caffe目录,它说 hdf5.h:没有这样的目录 我已完成的步骤: 更新和升级我的Ubuntu Server 安装Python 2.7 所有依赖项均基于 http://caffe.berkeleyvision.org/install_apt.html 运行cp cp
..
我开始使用tensorflow(来自Caffe),并且使用的损失是 sparse_softmax_cross_entropy_with_logits 。该函数接受 0,1,... C-1 之类的标签,而不是onehot编码。现在,我想根据类标签使用权重;我知道,如果我使用 softmax_cross_entropy_with_logits (一种热编码),则可以使用矩阵乘法来完成,是否可以用进行相
..
我正在尝试在优胜美地上安装caffe,但出现以下错误: make: *** No rule to make target '/usr/local/include/boost/smart_ptr/detail/sp_counted_base_clang.hpp', needed by '.build_release/cuda/src/caffe/layers/absval_layer.o'.
..
我正在尝试使用python构建caffe,但它一直在说 CXX/LD -o python/caffe/_caffe.so python/caffe/_caffe.cpp /usr/bin/ld: cannot find -lboost_python3 collect2: error: ld returned 1 exit status make: *** [python/caffe/_caf
..
我一直在关注 $ brew uninstall openblas; brew install --fresh -vd openblas 并添加两个构建标记: LDFLAGS: -L/usr/local/opt/openblas/lib CPPFLAGS: -I/usr/local/opt/openblas/include 但是我仍然收到错误消息.然后,我按照建议的此处重新安
..
您好,我有一个网络会生成这样的logit/输出: logits = tf.placeholder(tf.float32, [None, 128, 64, 64]) // outputs y = tf.placeholder(tf.float32, [None, 128, 64, 64]) // ground_truth, targets -> y地面真实度值从[0, 255] to [0
..
我正在尝试下载经过BVLC训练的模型,但我一直卡在这个错误中 UnicodeDecodeError: 'utf-8' codec can't decode byte 0x80 in position 110: invalid start byte 我认为是由于以下功能(完整代码) # Closure-d function for checking SHA1. def mod
..
我正在使用pycaffe,并且我的火车和测试数据为LMDB格式. 我创建了这样的网络: net = caffe.Net('train.prototxt','c.caffemodel',caffe.TEST) 在调用net.forward时,隐式地一步一步地遍历了LMDB测试数据库.我的问题是如何从LMDB的开头开始,并在前n批测试数据中测试网络? 谢谢 解决方案 不确定它
..
我已经有一个为解决方案 LMDB根据密钥的词法顺序遍历数据.您可以在当前密钥之前添加一个随机数,数据将相应地随机排列.我也正在研究一种有效的方法,可以在各个时期之间随机重写密钥,因为我想在数据集中使用批处理规范化.
..
我设法将numpy数组写入lmdb,但是解决方案远非完美,但实际上我的X只是jpg图像,所以我的问题是如何直接将jpeg文件写入lmdb? 好像pycaffe做类似的事情,但它使用特定于caffe的Datum,因此我需要一些没有依赖性的常规解决方案. 解决方案 在此示例中,将图像写为numpy数组,直接写为已编码的jpg. 如我们所见,直接存储jpg在存储方面更加有效.
..
这是两个LMDB数据库.有什么办法可以合并这两个数据库并使用caffe将其馈送到网络? 解决方案 使用python lmdb接口简单地编写脚本.像这样: import lmdb env = lmdb.open("path/to/lmdbFile") txn = env.begin(write=True) database1 = txn.cursor("db1Name") data
..