caffe相关内容
看一个例子 'solver.prototxt',贴在BVLC/caffe git上,有一个训练元参数 weight_decay: 0.04 这个元参数是什么意思?我应该赋予它什么价值? 解决方案 weight_decay 元参数控制神经网络的正则化项. 在训练期间,将正则化项添加到网络的损失中以计算反向传播梯度.weight_decay 值决定了这个正则化项在梯度计算中的主导地位
..
在 Caffe 上,我正在尝试实现一个用于语义分割的全卷积网络.我想知道是否有特定的策略来为以下超参数设置 'solver.prototxt' 值: test_iter test_interval iter_size max_iter 这是否取决于训练集的图像数量?如果是这样,如何? 解决方案 为了以有意义的方式设置这些值,您需要更多关于数据的信息: 1.训练集大小
..
(已添加对此问题的更新.) 我是比利时根特大学的研究生;我的研究是关于深度卷积神经网络的情感识别.我正在使用 Caffe 框架来实现 CNN. 最近我遇到了一个关于类不平衡的问题.我正在使用 9216 个训练样本,大约.5% 被标记为正 (1),其余样本被标记为负 (0). 我正在使用 SigmoidCrossEntropyLoss 层来计算损失.在训练时,即使经过几个 epoc
..
在训练过程中遇到困难时 (nans, 损失不收敛等)有时通过设置'solver.prototxt' 文件中的debug_info: true. 训练日志看起来像: I1109 ...] [Forward] 层数据,顶部 blob 数据数据:0.343971I1109 ...] [转发] 层 conv1,顶部 blob conv1 数据:0.0645037I1109 ...] [转发] 层
..
我注意到在训练过程中经常出现的是 NAN 被引入. 通常情况下,它似乎是由内积/全连接层或卷积层中的权重引入的. 这是因为梯度计算爆炸了吗?还是因为权重初始化(如果是这样,为什么权重初始化会有这个效果)?还是很可能是输入数据的性质造成的? 这里的首要问题很简单:在训练期间发生 NAN 的最常见原因是什么?其次,有哪些方法可以解决这个问题(以及它们为什么有效)?> 解决方案 我
..
我对机器学习/python/ubuntu 比较陌生. 我有一组 .jpg 格式的图像,其中一半包含我希望 caffe 学习的功能,另一半不包含.我找不到将它们转换为所需 lmdb 格式的方法. 我有必要的文本输入文件. 我的问题是谁能提供有关如何在 ubuntu 终端中使用 convert_imageset.cpp 的分步指南? 谢谢 解决方案 Caffe conv
..
我想编译/配置 Caffe,这样当我用它训练人工神经网络时,训练是多线程的(只有 CPU,没有 GPU).如何使用 Caffe 启用多线程?我在 Ubuntu 14.04 LTS x64 上使用 Caffe. 解决方案 一种方法是使用 OpenBLAS 而不是默认的 ATLAS.为此, sudo apt-get install -y libopenblas-dev 在编译 Caff
..
我开始使用 tensorflow(来自 Caffe),并且我正在使用损失sparse_softmax_cross_entropy_with_logits.该函数接受像 0,1,...C-1 这样的标签,而不是 onehot 编码.现在,我想根据类标签使用权重;我知道如果我使用 softmax_cross_entropy_with_logits(一种热编码),这可能可以通过矩阵乘法来完成,有没有办法
..
我将火车和标签数据作为 data.mat.(我有 200 个训练数据和 6000 个特征,标签是 (-1, +1) 保存在 data.mat 中). 我正在尝试在 hdf5 中转换我的数据并使用以下方法运行 Caffe: 加载data.mathdf5write('my_data.h5', '/new_train_x', single( reshape(new_train_x,[200, 6
..
我从 Caffe 开始,mnist 示例运行良好. 我将火车和标签数据设为 data.mat.(我有 300 个具有 30 个特征的训练数据,标签是 (-1, +1) 保存在 data.mat 中). 但是,我不太明白如何使用caffe来实现我自己的数据集? 有没有可以教我的分步教程? 非常感谢!!!!任何建议将不胜感激! 解决方案 我认为将数据从 Matlab 传输到
..
我希望使用 InfogainLoss 在我的模型中.但是我很难正确定义它. 有没有关于INFOGAIN_LOSS层使用的教程/例子? 这一层的输入,类概率,应该是SOFTMAX层的输出,还是足以输入全连接层的“顶部"? INFOGAIN_LOSS 需要三个输入:类别概率、标签和矩阵 H.矩阵 H 可以作为层参数提供 infogain_loss_param { source: "f
..
我希望您一切都好,我尝试运行从此处下载的python代码:" 我正在使用Ubuntu 16.04,python(2.7,3.5), import sys导入操作系统sparse_ratio_vec = [0.33,0.8,0.9,0.8]#每一层的稀疏率iters = [500、1000、10500、11000、500]每个阶段的最大迭代次数def generate_data_layer()
..
我正在尝试将大型Caffe网络复制到Keras(基于tensorflow后端).但是即使在单个卷积层上,我也遇到了很大的麻烦. 简单的一般卷积: 假设我们有一个形状为(1,500,500,3)的4D输入,并且我们必须使用 96 过滤器对此输入执行一次卷积内核大小为 11 和 4x4 的步幅. 让我们设置权重和输入变量: w = np.random.rand(11,11,3,9
..
当我尝试使用OpenCV 3.4.3加载caffe模型时,出现错误 what():OpenCV(3.4.3)/home/schneider/libs/opencv-3.4.3/modules/dnn/src/dnn.cpp:412:错误:(-2:未指定错误)无法在函数"getLayerInstance" *中创建类型为"DummyData"的图层"DummyData1" prototxt文
..
我在运行时遇到错误 make -j`sysctl -n hw.logicalcpu` 在maxos catalina上构建openpose: [40%]链接CXX共享库libopenpose.dylib体系结构x86_64的未定义符号:"caffe :: Net :: CopyTrainedLayersFrom(std :: __ 1 :: basic_string
..
我希望您一切都好,我尝试运行从此处下载的python代码:" 我正在使用Ubuntu 16.04,python(2.7,3.5), import sys导入操作系统sparse_ratio_vec = [0.33,0.8,0.9,0.8]#每一层的稀疏率iters = [500、1000、10500、11000、500]每个阶段的最大迭代次数def generate_data_layer()
..
我正在将caffe net与python一起使用.我有这样的train.txt文件: train/1175-c/b0a1.bmp b0a1火车/1175-c/b0a2.bmp b0a2火车/1175-c/b0a3.bmp b0a3火车/1175-c/b0a4.bmp b0a4火车/1175-c/b0a5.bmp b0a5火车/1175-c/b0a6.bmp b0a6火车/1175-c/b0a7
..
我需要从现有的caffe模型中更新caffe模型,在该模型中我将删除最后两层.需要减小Caffe模型的大小,以便更轻松,更小地部署.假设我现有的caffe模型是 A1.caffemodel ,它具有 5个卷积层 和 3个全连接层.我想从中生成一个名为 B1.caffemodel 的新模型,该模型将具有 5个卷积层 和 1个完全连接 层(最后2个fc层被丢弃). 感谢您提出的所有宝贵建议和有用
..
我正在研究图像分割项目,并且一直在尝试采用图像增强技术来增加训练集的大小.刚开始,我只是尝试使用水平翻转将图像大小加倍,但是我发现性能要比不使用它差很多.是否有任何可以共享的见解.谢谢. 解决方案 因此,基本上,您需要回答一个重要问题:翻转后的图片在您的域中是否是有效图片? 如果不是这样,则可能仅由于您向网络提供的无效输入而可能会损害您的培训过程,而无效输入可能会在数据中学习网络的虚
..
Pyinstaller 3.2版 操作系统:win10 我的python脚本在Winpython Python解释器中运行良好. 但是当我使用Pyinstaller软件包时,python脚本包含caffe模块,我将面对这个问题:“您可以加载I/O插件与 skimage.io.use_plugin " 我按照上面的回答修复了我的规范文件(挂钩文件?).而且我一直在收到以下错误
..