caffe相关内容
关于CNN中的conv层,我有以下理论问题.想象一下一个带有6个滤镜的conv层(图中的conv1层及其6个滤镜). 1)是什么保证了conv层中学习的过滤器的多样性? (我是说,学习(优化过程)如何确保不学习相同(相似)的过滤器? 2)转换层内过滤器的多样性是一件好事吗?有任何研究吗? 3)在学习(优化过程)期间,同一层的过滤器之间是否存在任何交互作用?如果是,怎么办?
..
我正在尝试使用caffe训练网络,但是却遇到了一个文件未找到的异常: I0111 11:19:27.339706 5151 layer_factory.hpp:76] Creating layer data I0111 11:19:27.340117 5151 net.cpp:106] Creating Layer data I0111 11:19:27.340126 5151 net
..
不同的团队使用不同的库来训练和运行神经网络(caffe,火炬,theano ...).这使共享变得困难:每个库都有其自己的格式来存储网络,并且每次要测试其他团队的工作时都必须安装一个新库. 我正在寻找解决方案,以减少繁琐的工作: -是否存在首选的(共享的)格式来存储神经网络? -是否有服务或库可以帮助处理不同类型的网络/或将一种类型转换为另一种类型? 谢谢! 解决方案 是否
..
我一直在尝试在Caffe中实现Caffe的三重态损失的softmax版本, Hoffer和Ailon,使用三重态网络进行深度度量学习,ICLR 2015 我已经尝试过此方法,但是由于指数L2不成平方,因此我发现很难计算梯度. 有人可以在这里帮助我吗? 解决方案 使用现有的caffe层来实施L2规范可以节省所有麻烦. 这是在Caffe中针对“底部" x1和x2计算||x1
..
我有一个已经在CIFAR-10上进行过训练的模型意识到如何在pycaffe中进行预测. 我从lmdb获得了一个图像,但我不知道如何将其加载到网络中并获得预测的类. 我的代码: net = caffe.Net('acc81/model.prototxt', 'acc81/cifar10_full_iter_70000.caffemodel.h5',
..
我对Google最近在博客中描述使用nn制作艺术品的博客感兴趣. 我对一种技术特别感兴趣: '在这种情况下,我们只需向网络提供任意图像或照片,然后让网络分析图片.然后,我们选择一个层,并要求网络增强检测到的任何内容.网络的每一层在不同的抽象级别上处理功能,因此生成的功能的复杂性取决于我们选择增强哪一层.例如,较低的层往往会产生笔触或简单的类似装饰物的图案,因为这些层对基本特征(如边缘及
..
我正在通过 Caffe prototxt查找深层残差网络,并注意到"Scale"层的出现. layer { bottom: "res2b_branch2b" top: "res2b_branch2b" name: "scale2b_branch2b" type: "Scale" scale_param { bias_term: true
..
我的数据集包含400张32x32x3图像,标签包含浮点数(-1,1).示例: faceCroppedImages/img1.jpg 0 faceCroppedImages/img2.jpg 0.0128 faceCroppedImages/img3.jpg 0.0128 faceCroppedImages/img4.jpg 0.0128 faceCroppedImages/img22.jpg
..
我已经用caffe训练了回归网络.我在训练和测试阶段都使用"EuclideanLoss"层.我已经绘制了这些图,结果看起来很有希望. 现在,我想部署模型并使用它.我知道如果使用SoftmaxLoss,则最后一层必须在部署文件中为Softmax. Euclidean loss应该是什么? 解决方案 对于部署,您只需要丢弃损失层,在本例中为"EuclideanLoss"层.网络的输出是您
..
我已经编写了python代码,以编程方式生成卷积神经网络(CNN),用于训练和验证caffe中的.prototxt文件.下面是我的功能: def custom_net(lmdb, batch_size): # define your own net! n = caffe.NetSpec() # keep this data layer for all networ
..
我未能尝试使用Caffe在Python中实现简单的损失层.作为参考,我发现了用Python实现的几层,包括 ,此处和此处. 从Caffe文档/示例提供的EuclideanLossLayer开始,我无法使其正常运行并开始调试.即使使用这个简单的TestLayer: def setup(self, bottom, top): """ Checks the correct n
..
我在caffe中创建了一个"Python"层"myLayer",并将其用于网络train_val.prototxt中,我这样插入该层: layer { name: "my_py_layer" type: "Python" bottom: "in" top: "out" python_param { module: "my_module_name" laye
..
我正在使用Caffe,它在加载神经网络时会在外壳上打印很多输出. 我想抑制该输出,据说可以通过在运行Python脚本时设置GLOG_minloglevel=1来完成.我尝试使用下面的代码来做到这一点,但是我仍然从加载网络中获得所有输出.如何正确抑制输出? os.environ["GLOG_minloglevel"] = "1" net = caffe.Net(model_file, pre
..
我有一个带有多个标签的图像数据集;数据集中有100个类别,每个图像都有1至5个与之关联的标签. 我正在按照以下网址中的说明进行操作: https://github.com/BVLC/caffe/issues/550 它说我需要生成一个文本文件,其中列出了图像及其标签,如 /home/my_test_dir/picture-foo.jpg 0 /home/my_test_di
..
在解析了许多有关在Python中构建Caffe层的链接之后,我仍然很难理解一些概念.可以请别人澄清一下吗? 此处解释了网络的Blob和权重python结构:此处解释了网络和求解器的结构: caffe/pycaffe速查表? . 定义python图层的示例在此处: pyloss. py上的git . 此处的层测试:在git上测试层. 此处介绍了C ++新层的开发: git wiki .
..
我认为我们也许可以对一些执行多类别分类的方法进行Caffeinated描述. 通过多类别分类,我的意思是:输入数据包含多个模型输出类别的表示,并且/或者可以简单地在多个模型输出类别下进行分类. 例如包含猫和猫的图像狗对猫和猫都会输出(理想情况下)〜1.狗预测类别,其他所有类别均为〜0. 基于本文, 构建这样的网络是否需要使用多个神经元(内部产品-> relu->内部产品)和so
..
我想使用caffe.NetSpec()界面使用python设置caffe cnn.尽管我看到我们可以将测试网放在solver.prototxt中,但是我想用不同的相位在model.prototxt中编写它.例如, caffe模型原型实现两个数据层,不同阶段: layer { name: "data" type: "Data" top: "data" top: "label"
..
我需要一些帮助,以从带有图像和标签文本文件的纯目录中为暹罗CNN创建CaffeDB.最好的办法是使用python方法. 问题不在于浏览目录并制作图像对.我的问题更多是从这些对中创建一个CaffeDB. 到目前为止,我仅使用 convert_imageset 从映像目录中创建CaffeDB. 感谢您的帮助! 解决方案 为什么不简单地使用旧的convert_imagest制作两个数据集?
..
我想设计一个卷积神经网络,它仅占用Alexnet即可占用GPU资源.我想使用FLOP对其进行测量,但我不知道如何计算.请问有没有工具可以做到这一点? /p> 解决方案 有关在线工具,请参见 http: //dgschwend.github.io/netscope/#/editor .对于alexnet,请参见 http://dgschwend.github.io/netscope/#/pres
..
我想基于训练期间“当前预测"与“正确标签"的接近/远近来缩放每个图像的损失值.例如,如果正确的标签是“猫",而网络认为它是“狗",则罚金(损失)应小于网络认为它是“汽车"的情况. 我的工作方式如下: 1-我定义了标签之间距离的矩阵, 2-将该矩阵作为底部传递到"softmaxWithLoss"层, 3-将每个log(prob)乘以该值,以根据forward_cpu 中的缺陷来衡量
..