caffe相关内容
我修改了FCN网络并设计了一个新的网络,在该网络中,我使用两个ImageData图层作为输入参数,并希望该网络产生一张图片作为输出。 是 train_val.prototxt 和 deploy.prototxt 原始图片和标签都是灰度图片,尺寸为224 * 224。 我已经训练了caffemodel并使用infer.py来使用caffemodel进行细分,但是遇到错误: F050
..
我正在使用Ubuntu 14.04操作系统的g2.8xlarge EC-2实例上运行启用cuDNN的py-faster-rcnn。一切都已编译,似乎运行良好。我通过以下方式登录到远程实例: ssh -X -i“”“ ubuntu @ 我还输入命令: export DISPLAY =:0 运行 ./ tools / demo.
..
我正在两个不同的DL库(Caffe e Tensorflow)中训练两个CNN(AlexNet e GoogLeNet)。该网络由每个库的开发团队实现(此处和此处) 我将原始Imagenet数据集缩减为1024个1类图像,但设置了1000个类别以在网络上进行分类。 因此,我训练了CNN,使用了不同的处理单元(CPU / GPU)和批次大小,我观察到损失迅速收敛到接近零(通常在完成1个历
..
在Caffe中,有一个选项带有SoftmaxWithLoss函数,可忽略计算概率中的所有负标签(-1),因此只有0或正标签概率加起来为1。 Tensorflow softmax损失有类似的功能吗? 解决方案 只是想出一种解决方法---我使用tf在标签索引上创建了一个单张量。 one_hot(深度设置为标签数)。 tf.one_hot自动将所得的one_hot张量(形状为[批处理,标签
..
假设我们有一个这样的层: layer { 名称:“完全连接” 类型:“ InnerProduct” 底部:“底部” 顶部:“顶部” inner_product_param { num_output:1 } } 输出为batch_size x1。在几篇论文中(例如,链接1 顶部的第3页图片,或 link2 顶部的第4页)我已经看到他们最终使用了这样的一层来制
..
我可以计算出VGGNet的500 x 500输入图像的接收场大小。 接收场大小如下。 图层名称= conv1,输出大小= 500,步幅= 1,RF大小= 3 图层名称= relu1_1,输出大小= 500,步幅= 1,RF大小= 3 层名称= conv1_2,输出大小= 500,步幅= 1,RF大小= 5 层名= relu1_2,输出大小= 500,步幅= 1,RF大小= 5
..
我正在尝试在gpu上使用pycaffe运行神经网络。 此功能在我第一次调用脚本时有效。 第二次运行相同的脚本时,CUDA在标题中引发错误。 批处理大小为1,此时图像大小为243x322 ,gpu的内存为8gb。 我想我缺少重置内存的命令了? 谢谢 编辑: 也许我应该澄清一些事情:我正在Windows上运行caffe 。 当我使用python script
..
成功构建caffe之后,我进行了运行测试,但在ImageDataLayer,DBTest,DataTransformTest,HDF5OutputLayerTest和某些求解器中失败了。 构建/链接到特定路径时是否缺少步骤? 这是失败的测试用例(最后删除一些以减少问题的正文长度: [FAILED] 349个测试,下面列出: [FAILED] NetUpgradeTest.Te
..
我想使用ethereon的出色软件包caffe-tensorflow,遇到了 已解决的问题: 当我运行示例或尝试导入caffepb 我收到错误消息: >> import caffepb 追溯(最近一次调用): 文件“”,在中的第1行。 文件“ caffepb.py”,第28行,在中 type = None), 文件“ /hom
..
我正在尝试使用caffe运行一个简单的代码,该代码应该打开 deploy.prototxt ,但无法打开文件并引发此错误 RuntimeError:无法打开文件/home/ebadawy/git/caffemodels/bvlc_reference_caffenet/deploy.prototxt 这是我的代码 将numpy导入为np as plt p
..
当我尝试在ST3中使用python进行构建时,在尝试执行操作时出现导入错误 import caffe 但是当我只是在终端上运行时,键入 $ python >>>导入caffe 它有效。在我的Sublime文本3上,我仍然可以导入其他模块,例如numpy和matplotlib。 这是我发现的Sublime python版本(这是正确的
..
我正在尝试使用caffe为图像实现像素级二进制分类。对于尺寸为3x256x256的每个图像,我都有一个256x256的标签数组,其中每个条目都标记为0或1。此外,当我使用以下代码读取HDF5文件时, dirname =“ examples / hdf5_classification / data” f = h5py.File(os.path.join(dirname,'train.h
..
我正在尝试使用Caffe进行CMake,但是我的系统找不到protobuf编译器。我以前已经安装了protobuf2.7.0。现在我切换回2.6.1。如何配置CMake以识别protobuf2.6.1编译器? 我已经完成 $ sudo apt-get install libprotobuf-dev protobuf-compiler $ protoc --version li
..
当我尝试使用Caffe和Python(2.7和3.5)从经过预训练的VGG 16/19模型中获取输出时,在net.forward()步骤(在笔记本电脑的CPU上)上花费了15秒以上。 我想知道是否有人会建议我这样做,就像许多其他模型(例如ResNet,AlexNet)一样,我很快就得到了输出, 我使用的代码如下: img = cv2.imread(路径+ img_name
..
我是咖啡新手。我正在尝试将其安装在macbook pro上以双启动方式运行的Ubuntu 14.04中。我设法使其开始运行,但在笔记本电脑崩溃后不久,出现了同样的错误“ No module named caffe”,我按照字母上的说明进行操作,似乎与opencv有关。编译下面复制的caffe时,出现错误消息。 / usr / bin / ld:找不到-lopencv_imgcodecs co
..
好吧,我之前有一个问题,关于在caffe中使用SPP图层。 这个问题是上一个一个。 使用SPP图层时,我得到以下错误输出。 似乎到达spp层时图像变得太小了? 我使用的图像很小。宽度范围在10到20像素之间,高度范围在30到35像素之间。 I0719 12:18:22.553256 2114932736 net.cpp :406] space_pyramid_pooling
..
我正在尝试使用caffe为Custom数据集训练Faster RCNN。我已经承认,考虑输入图像大小为600 * 1000,可以构建Faster RCNN caffe模型。我的自定义数据集中有许多尺寸为300 * 400的图像。我是否需要将图像零填充到最大尺寸为600 * 100或放大?如果两者都不是,则在对图像进行网络输入之前,应该对其进行适当的修改。请提出建议。 谢谢。 解决方案
..
我正在尝试修改caffe模型的权重,该模型是名为Deep Lab的caffe分支的一部分。尽管有关于如何进行网络手术的教程,当我尝试使用自定义caffemodel进行相同操作时,python内核始终死于以下行: #原始网络并提取完全连接的图层的参数。 net = caffe.Net('../ models / deeplab / train.prototxt', '../models/d
..
现在,我正在训练带有2个类数据的网络...但是在第一次迭代后精度为1! 输入数据是灰度图像。创建HDF5Data时,将随机选择两个类图像。 为什么会这样?哪里出了问题或哪里出了问题! network.prototxt: 名称:“ brainMRI” 层{ 名称:“数据” 类型:“ HDF5Data” 顶部:“数据” 顶部:“标签” 包括:{ 阶段:火车 } h
..
如果我在网络中定义了多个损耗层,那么从网络的两端到网络的起始端会发生多个反向传播吗?我的意思是,它们甚至可以那样工作吗? 假设我有这样的东西: Layer1 { } Layer2 { } ... Layer_n { } Layer_cls1 { bottom:layer_n top:cls1 } Layer_cls_loss1 { type:some_l
..