caffe相关内容
我正在使用 Caffe 在已知图像数据库上训练 AlexNet.我正在进行基准测试并希望排除测试阶段. 这是 AlexNet 的 solver.prototxt: net: "models/bvlc_alexnet/train_val.prototxt"test_iter:1000测试间隔:1000base_lr:0.01lr_policy: "步骤"伽玛:0.1步长:100000显示:2
..
我实现了 Caffe C++ 示例 的修改版本,而它效果非常好,它非常慢,因为它只接受一张一张的图像.理想情况下,我想向 Caffe 传递一个包含 200 张图像的向量,并为每个图像返回最佳预测.我得到了一些王方林的大力帮助并实施了他的一些建议,但是我仍然在解决如何从每个图像中检索最佳结果时遇到一些麻烦. Classify 方法现在传递了一个 cv::Mat 对象向量(变量 input_ch
..
我对 Google 最近发表的一篇博客文章很感兴趣,该文章描述了使用 nn 进行艺术创作. 我对一种技术特别感兴趣: '在这种情况下,我们只需向网络提供任意图像或照片,然后让网络分析图片.然后我们选择一个层并要求网络增强它检测到的任何内容.网络的每一层都在不同的抽象级别处理特征,因此我们生成的特征的复杂性取决于我们选择增强哪一层.例如,较低的层往往会产生笔触或简单的装饰性图案,因为这些
..
我正在寻找一种方法,在给定输入图像和神经网络的情况下,它会为图像中的每个像素(天空、草、山、人、汽车等)输出一个标记类. 我已经设置了 Caffe(未来分支)并成功运行了 FCN-32sPASCAL-Context 模型上的卷积语义分割.但是,我无法用它生成清晰标记的图像. 形象化我的问题的图像: 输入图像 地面真相 我的结果: 这可能是一些分辨率问题.知道我哪里出
..
我想将图像的像素分类为“is street"或“is not street".我有一些来自 KITTI 数据集的训练数据,我看到 Caffe 有一个 IMAGE_DATA 图层类型.标签以与输入图像大小相同的图像形式存在. 除了 Caffe,我解决这个问题的第一个想法是在应该分类的像素周围提供图像块(例如,顶部/左侧/右侧/底部 20 个像素,导致每像素 41×41=1681 个特征)想分类
..
我正在查看 用于深度残差网络的 Caffe prototxt 并注意到 “Scale" 层的外观. 层{底部:“res2b_branch2b"顶部:“res2b_branch2b"名称:“scale2b_branch2b"类型:“规模"比例参数{bias_term: 真}} 但是,此层在 Caffe 层目录中不可用.有人能解释一下这个层的功能和参数的含义吗,或者指向 Caffe 的最新文档?
..
我正在尝试使用 caffe 和 python 进行实时图像分类.我在一个过程中使用 OpenCV 从我的网络摄像头流式传输,并在一个单独的过程中使用 caffe 对从网络摄像头拉出的帧执行图像分类.然后我将分类的结果传回主线程来为网络摄像头流添加字幕. 问题是,即使我有一个 NVIDIA GPU 并且正在 GPU 上执行 caffe 预测,主线程也会变慢.通常不做任何预测,我的网络摄像头流以
..
我的数据集包含 400 张 32x32x3 的图像,标签包含浮点数 (-1,1).示例: faceCroppedImages/img1.jpg 0faceCroppedImages/img2.jpg 0.0128faceCroppedImages/img3.jpg 0.0128faceCroppedImages/img4.jpg 0.0128faceCroppedImages/img22.jpg
..
我用 caffe 训练了一个回归网络.我在训练和测试阶段都使用 "EuclideanLoss" 层.我已经绘制了这些,结果看起来很有希望. 现在我想部署模型并使用它.我知道如果使用SoftmaxLoss,则部署文件中的最后一层必须是Softmax.在欧几里得损失的情况下,这应该是什么? 解决方案 对于部署,你只需要丢弃损失层,在你的例子中是 "EuclideanLoss" 层.你的网
..
最近我遇到了"Parameter" caffe 层. 似乎该层将其内部参数 blob 暴露给“top". 这个层有什么用? 能举个例子吗? 解决方案 这一层是在 pull request 中引入的 #2079,带有以下说明: 该层仅包含用户定义形状的参数 blob,并将其作为单个顶部共享. 这正是您所期望的.这是在问题 #1474 的上下文中引入的,它基本上建议将参数
..
digits 4.0 0.14.0-rc.3/Ubuntu (aws) 训练一个 5 类的 GoogLenet 模型,每类大约有 800 个训练样本.我试图使用 bvlc_imagent 作为预训练模型.这些是我采取的步骤: 从 http://dl.caffe.berkeleyvision.org/bvlc_googlenet 下载的图像网.caffemodel 并将其放置在/home/u
..
我正在尝试使用 TensorFlow 复制用于语义分割的全卷积网络 (FCN) 的结果. 我一直坚持将训练图像输入计算图中.全卷积网络使用 VOC PASCAL 数据集进行训练.然而,数据集中的训练图像大小不一. 我只是想问他们是否对训练图像进行了预处理以使其具有相同的大小以及他们如何预处理图像.如果不是,他们是否只是将不同大小的图像批量输入 FCN?是否可以将一批不同大小的图像输入
..
最近,许多深度架构使用“批量归一化"进行训练. 什么是“批量标准化"?它在数学上有什么作用?它对培训过程有什么帮助? 在训练期间如何使用批量归一化?它是插入模型的特殊层吗?我需要在每一层之前标准化,还是只需要标准化一次? 假设我使用批量归一化进行训练.这会影响我的测试时间模型吗?我应该用我的“部署"网络中的其他/等效层/操作替换批量标准化吗? 关于批量标准化的这个问题只涵盖
..
如何计算模型中的参数数量,例如LENET 用于 mnist,或 ConvNet 用于 imagent 模型等.caffe 中是否有任何特定函数可以返回或保存模型中的参数数量.问候 解决方案 这是一个用于计算 Caffe 模型中参数数量的 Python 代码片段: 导入caffecaffe.set_mode_cpu()将 numpy 导入为 np从 numpy 进口产品,总和从 pprin
..
我正在尝试在 Caffe 上训练网络.我的图像大小为 512x640.批量大小为 1.我正在尝试实施 FCN-8s. 我目前在具有 4GB GPU 内存的 Amazon EC2 实例 (g2.2xlarge) 上运行它.但是当我运行求解器时,它立即抛出一个错误 检查失败:error == cudaSuccess (2 vs. 0) 内存不足*** 检查失败堆栈跟踪:***中止(核心转储)
..
我对如何使用/插入 "BatchNorm" 层有点困惑在我的模型中. 我看到了几种不同的方法,例如: ResNets: "BatchNorm"+"Scale"(无参数共享) "BatchNorm" 层紧跟在 "Scale" 层之后: 层{底部:“res2a_branch1"顶部:“res2a_branch1"名称:“bn2a_branch1"类型:“BatchNorm"batch_
..
我尝试使用 Caffe 在 Python 中实现一个简单的损失层没有成功.作为参考,我发现在 Python 中实现了几个层,包括 这里、这里和此处. 从 Caffe 文档/示例提供的 EuclideanLossLayer 开始,我无法让它工作并开始调试.即使使用这个简单的 TestLayer: def setup(self, bottom, top):“"检查底部输入的正确数量.:para
..
我在caffe中创建了一个"Python"层"myLayer",并在网络中使用它train_val.prototxt我插入了层像这样: 层{名称:“my_py_layer"类型:“Python"底部:“在"顶部:“出"蟒蛇参数{模块:“my_module_name"图层:“我的图层"}包括 { phase: TRAIN } # 这是棘手的部分!} 现在,我的层只参与网络的TRAINing阶段,
..
我认为批量大小仅用于性能.批量越大,同时计算的图像就越多以训练我的网络.但我意识到,如果我改变批量大小,我的净准确度会变得更好.所以我不明白批量大小是什么.有人能解释一下什么是批量大小吗? 解决方案 Caffe 使用 Stochastic-Gradient 进行训练-Descend (SGD):也就是说,在每次迭代时,它计算训练数据参数的(随机)梯度,并在梯度方向上移动(=改变参数).
..
我正在使用 Caffe,它在加载神经网络时会向 shell 打印大量输出. 我想抑制该输出,据说可以通过在运行 Python 脚本时设置 GLOG_minloglevel=1 来完成.我已经尝试使用以下代码来做到这一点,但我仍然从加载网络中获得所有输出.如何正确抑制输出? os.environ["GLOG_minloglevel"] = "1"net = caffe.Net(model_fil
..