caffe相关内容
是否可以即时更改 ImageData 层或 MemoryData 层的输入源? 我试图在每个时代重新整理数据,但是我同时拥有图像和其他一些非图像功能,这些功能我想在网络的稍后阶段进行连接。我找不到一种可靠的方式来同时保留图像和我的其他数据,从而保持两者的对齐。 因此,我正在考虑重新每次生成 imagelist.txt 以及非图像数据(在内存中),并将新文件附加到 ImageData 层
..
我正在使用CAFFE编写C ++代码来预测单个(目前)图像。图片已经过预处理,格式为.png。我已经创建了一个Net对象并阅读了经过训练的模型。现在,我需要将.png图像用作输入层并调用net.Forward()-但是有人可以帮助我弄清楚如何设置输入层吗? 我在网络上发现了一些示例,但是它们都不起作用,并且几乎所有示例都已弃用。根据: Berkeley的Net API ,不建议使用“ For
..
在caffe的AlexNet实现中,我在deploy.prototxt文件中看到以下层: layer { 名称:“ drop7” 类型:“ Dropout” 底部:“ fc7” 顶部:“ fc7” dropout_param { dropout_ratio:0.5 } } 现在,退出的关键思想是随机删除单位(以及 这是否意味着我可以简单地从dep
..
我从 https://github.com/BVLC/caffe/tree/master/中使用了经过预训练的GoogleNet models / bvlc_googlenet 并使用我自己的数据(〜100k图片,101类)对其进行了微调。 经过一天的训练,我在top-1分类中达到了62%,在top-5分类中达到了85%,并尝试使用该网络来预测几张图像。 我只是按照 https: //gi
..
average_loss 有什么用? 解决方案 您可以签入 caffe.proto 文件。当前版本中的第151行给出有关average_loss的以下注释: 显示在上一次average_loss迭代中的平均损失
..
有没有一种简单的方法(例如,无需修改
..
caffe已安装在Ubuntu服务器上,并且测试正常。我只是在Ubutun(16.04)云服务器上运行以下代码: import caffe from caffe.proto import caffe_pb2 label_map = caffe_pb2.LabelMap() 我已经按以下方式运行了互联网提供的命令,但是仍然存在错误: 命令:
..
我正在尝试为我的问题训练一个完全卷积的网络。我正在使用 https://github.com/shelhamer/fcn.berkeleyvision.org。 我有不同的图像尺寸。 我不确定如何在“ Crop”层中设置“ Offset”参数。 “偏移”参数的默认值是什么? 如何使用此参数在中心附近裁剪图像? 解决方案 根据作物图层文档,它需要两个底部Blob,并输出一个顶部B
..
我正在尝试使用Caffe的Google的 deepdream代码 。 他们使用由ModelZoo提供的ImageNet上预先训练的GoogLeNet模型。这意味着该网络是在裁剪为224x224像素大小的图像上进行训练的。来自 train_val.prototext : 图层{ 名称:“数据” 类型:“数据” ... transform_param { 镜像:true cr
..
在编译Caffe时,尽管安装了OpenBLAS,我仍然遇到此错误: AR -o .build_release / lib /libcaffe.a LD -o .build_release / lib / libcaffe.so / usr / bin / ld:找不到-lopenblas collect2:lddevolvióel estado de salida 1 ma
..
我正在使用Caffe使用非常简单的CNN结构对非图像数据进行分类。我在使用尺寸为nx 1 x 156 x 12的HDF5-数据上训练网络时没有问题。但是,我在分类新数据时遇到了困难。 如何我做一个没有任何预处理的简单正向传递?我的数据已经标准化,并且具有适用于Caffe的正确尺寸(已经用于训练网络)。下面是我的代码和CNN结构。 编辑:我已将问题隔离到pycaffe.py中的函数'_N
..
训练网络时,每N次迭代拍摄的快照会以两种形式同时出现。一个是.solverstate文件,我想它就是听起来像的样子,它存储损失函数和梯度的状态,等等。另一个是.caffemodel文件,我知道它存储了经过训练的参数。 .caffemodel是您需要预先训练的模型所需的文件,因此我想如果要测试网络,它也是您想要的文件。 .solverstate有什么用?在本教程中,您似乎可以从中重新开始
..
我目前正在尝试在caffe中实现自己的损失层,并且在尝试实现时,正在使用其他层作为参考。然而,令我困惑的一件事是在 Backward_cpu 中使用 top [0]-> cpu_diff() 。我将使用 EuclideanLossLayer 作为参考。这是我的问题 据我了解, top [0]-> cpu_diff() 保存来自下一层的误差导数,但是如果没有其他层怎么办?因为它用于 Eucli
..
有人成功训练了咖啡师模型吗?我有一个训练有素的图像集,我想用它来创建可与Google Deep Dream一起使用的caffe模型。 我能够找到的有关训练模型的唯一资源是: ImageNet教程 编辑:这是另一个,但它没有创建deploy.prototxt文件。当我尝试使用另一种模型中的一种时,它“起作用”但不正确。 caffe-oxford 102 任何人都可以指出
..
我目前正在尝试在TensorFlow中将 FCN进行语义分段以前是在Caffe 此处完成的。 不幸的是,我正在努力处理以下三件事: 1)如何将“反卷积”层从Caffe映射到TensorFlow? tf.nn.conv2d_transpose 是否正确? 2)如何将“ Crop”图层从Caffe映射到TensorFlow ?不幸的是,我在TensorFlow中看不到任何其他选择。
..
我正在使用在装有CUDA(没有驱动程序)的Ubuntu 14.04虚拟服务器上安装Caffe。 https://github.com/BVLC/caffe/wiki/Ubuntu-14.04-VirtualBox-VM 作为灵感。在安装过程中,我对MakeFile进行了编辑,使其在构建之前包含“ CPU_ONLY:= 1” 。但是,似乎Caffe仍在尝试使用GPU。当我尝试运行测试示例时,出现以下
..
我正在尝试使用13000个训练图像和3000个验证图像构建11类图像分类器。我正在使用使用mxnet进行训练的深度神经网络。训练准确性正在提高,并达到80%以上,但验证准确性在54-57%的范围内,并且没有增加。 这可能是什么问题?我应该增加图像数量吗? 解决方案 这里的问题是您的网络在某个时候停止学习有用的常规功能,并开始适应您的训练集的特点(结果过度拟合)。您想“强迫”网络以继续学习
..
我已经阅读了caffe2教程并尝试了预训练模型。我知道caffe2将利用GPU来运行模型/网络。但是输入数据似乎总是从CPU(即主机)内存中给出的。例如,在在模型之后加载加载后,我们可以通过 result = p.run([img]) 但是,图像“ img”应该在CPU范围内读取。我要寻找的是一个框架,该框架可以将图像(从视频中解码并仍驻留在GPU内存中)直接插入预测模型,
..
我尝试将预训练模型(VGG 19)用于DIGITS,但出现此错误。 错误:您的部署网络缺少Softmax层!阅读自定义网络的 文档和/或查看标准网络 的示例 我尝试用只有两个类的数据集进行测试。 我阅读了此和尝试修改最后一层,但我也报错。如何根据新数据集修改图层? 我尝试修改最后一层,但出现错误 错误:层“ softmax”在TRAIN阶段引用底部“ fc8”,但
..
我正在使用 apollocaffe 和重新检查。 Apollocaffe在c ++库中,而Reinspect在python中。重新检查来自apollocaffe的api。 我想调试apollocaffe内部的那些api。从python代码中,我使用了 python -m pdb train.py 但是我不能从apollocaffe进入api。 我喜欢 cout
..