deep-learning相关内容

如何加快caffe classifer在python

我使用python使用caffe分类器。我从我的相机获得图像,并从训练集预测图像。它工作很好,但问题是速度非常缓慢。我认为只有4帧/秒。你能建议我一些方法来提高我的代码的计算时间吗? 问题可以解释如下。我必须重新加载网络模型 age_net.caffemodel ,其大小约80MB,通过以下代码 age_net_pretrained ='。/ age_net.caffemodel' a ..
发布时间:2016-12-26 13:00:12 Python

在AlexNet神经元的数量

在 AlexNet 中,图片数据 3 * 224 * 224 。 第一个卷积层使用96个大小 11 * 我怀疑第一层的输出神经元计数。 在我看来,输入是 224 * 224 * 3 = 150528 ,那么输出应该是 55 * 55 * 96 = 290400 但在本文中,他们描述的输出是 253440 我不知道如何计算这层神经元的数量。 我还认为这是作者的一个 ..

如何为Caffe中的二进制分类器获取两个输出值(两个类中的每一个)?

我正在试验LeNet网络作为二进制分类器(是,否)。 测试配置文件中的第一层和最后几层是以下内容: layer { name:“data” type:“ImageData” top:“data” top:“label” include { phase:TEST } transform_param { scale:0.00390625 } image_data_p ..

一次可以传给Caffe多少图片?

我注意到了Caffe MNIST如何示例prototxt文件允许最多64个图像一次传递到网络。 我可以设置这个数字有多高? 我可以(例如)将此数字设置为200或甚至500,以便我一次可以接受高达200/500的图像,而不会对预测产生负面影响。 解决方案 唯一的限制是你的机器内存:当caffe加载模型时,它为所有参数和所有中间数据blob分配内存。您同时处理的图片越多,您需要预先 ..

Tensorflow - 具有自定义数据集的卷积神经网络不学习

我想为自定义数据集制作一个卷积神经网络。分类器只有两个类。我能够正确地读取输入图像,并且还为它们分配了两个相应类的batch_labels。代码执行没有错误,但输出是异常的。 由于某些原因,精度始终为50%。 image = inputs() image_batch = tf.train.batch([image],batch_size = 150) label_batch_po ..

Caffe预测同一类,无论图像

我修改了MNIST示例,当我使用我的3图像类,它返回的精度为91%。但是,当我修改 C ++示例时,使用 deploy prototxt 文件和标签文件,并尝试在某些图像上测试它返回第二类(1个圆)的预测,概率为1.0,无论什么图像我给它 - 即使它是在训练集中使用的图像。我已经尝试了十几个图像,它一直只是预测一个类。 为了澄清一些事情,在C ++示例中,我修改了我已经缩放图像被预测像在训练 ..

LMDB文件以及它们如何用于caffe深度学习网络

我在深度学习中很新,我在使用caffe深度学习网络时遇到一些问题。基本上,我没有找到任何文件解释如何解决我现在正在处理的一系列问题和问题。 请让我先解释我的情况。 我有数千张图片,我必须对它们进行一系列预处理操作。对于每个预处理操作,我必须将这些预处理的图像保存为4D矩阵,并且还存储具有图像标签的向量。我将这个信息存储为LMDB文件,将用作caffe googlene深度学习的输入。 ..

卷积神经网络对图像有定位能力吗?

据我所知,CNN依靠滑动窗口技术,并且只能指示某个模式是否存在于给定边界框中的任何位置。这是真的吗? 可以用CNN实现本地化而无需任何帮助? 解决方案 这是图像识别中的一个开放问题。除了滑动窗口,现有的方法包括将图像中的对象位置预测为CNN输出,预测边界(将像素分类为属于图像边界或不属于图像边界)等。例如,请参阅本文及其中的参考资料。 另请注意,CNN使用max-pooling ..

使用预训练(Tensorflow)CNN提取特征

深度学习已经成功应用于几个大型数据集,用于对少数类(猫,狗,汽车,飞机等)进行分类,其中性能击败更简单的描述符,如SIFT的特征袋,颜色直方图等。 然而,训练这样的网络需要每个类的大量数据和大量的训练时间。然而,在花费一个设计和训练这样的设备并收集训练数据之前,通常没有足够的数据或者只想知道卷积神经网络可能做得多好。 在这种特殊情况下,可能最理想的做法是使用一些基准数据集来配置和训练网 ..

GoogLeNet模型的微调

我从头开始训练GoogLeNet模型。但它没有给我有希望的结果。 作为一种替代,我想对我的数据集上的GoogLeNet模型进行微调。有谁知道我应该采取的步骤是什么? 解决方案 假设您尝试进行图片分类。这些应该是调整模型的步骤: 1。分类图层 原始的分类层“loss3 / classifier” 输出1000个类的预测(它 mum_output 设置为1000)。您需要将其 ..

Caffe输出层数精度

我修改了Caffe MNIST示例,将3类图片。我注意到的一个事情是,如果我指定输出层数为3,那么我的测试精度下降到低到40%的范围。但是,如果我+1和有4个输出层,结果是在95%的范围。 我添加了一个额外的类的图像到我的数据集(所以4类),并注意到同样的事情 - if输出层的数量与类的数量相同,那么结果是可怕的,如果它是相同的+1,那么它工作非常好。 inner_product_p ..

如何计算接受域大小?

我正在阅读关于使用CNN(卷积神经网络)进行对象检测的论文。 丰富的要素层次结构,用于精确的对象检测和语义分割 这里是关于接受字段的报价: pool5特征映射是6x6x256 = 9216维。忽略边界效应,每个pool5单元在原始227×227像素输入中具有195x195像素的接受场。中央pool5单元具有近乎全局的视图, ,而边缘附近的一个具有较小的剪辑支持。 ..
发布时间:2016-12-26 11:18:50 其他开发

Caffe可以直接对图像的像素进行分类吗?

我想将图片的像素归类为「is street」或「is not street」。我有一些来自 KITTI数据集的培训数据,我看到Caffe有一个 IMAGE_DATA 图层类型。 除了Caffe,我的第一个想法是解决这个问题是通过给图像应该分类的像素周围的补丁(例如,20像素到顶部/左/右/底部,导致每个像素41×41 = 1681个特征我想分类。 然而,如果我能告诉caffe如何使用标 ..

如何强制MATLAB在CPU而不是GPU上运行深度学习代码?

我没有 CUDA 启用的Nvidia GPU,我想强制MATLAB运行代码在CPU而不是GPU(是的,我知道,这将是非常非常缓慢)。 例如,我们尝试运行这段代码在我的电脑没有CUDA。这是MATLAB给出的错误: CUDA驱动程序或与此GPU设备有问题。确保您有一个支持的GPU,并且安装了最新的驱动程序。 错误在nnet.internal.cnn.SeriesNetwork / ..
发布时间:2016-12-22 13:48:12 其他开发

如何理解Cifar10预测输出?

我已经训练了 Cifar10 ( caffe )模型为两类分类。行人和非行人。培训看起来不错,我已经在 caffemodel 文件中更新权重。我使用两个标签1为行人和2为非行人,以及行人(64×160)和背景图像(64×160)的图像。 训练后,我用正图像(行人图像)和负像(背景图像)测试。我的测试 prototxt 文件如下所示 name:“CIFAR10_quick_test” ..
发布时间:2016-11-02 20:25:05 C/C++开发

使用不同的deploy.prototxt文件的Caffe C ++示例错误

我训练了使用MNIST 示例体系结构(但基于我自己的3个图像类),并一直尝试将其集成到 C ++示例。我修改了MNIST结构文件,使其类似于 C ++示例(用输入图层替换火车和测试图层)。 不幸的是,当我运行C ++程序时,它给我以下错误: F0827 14:57:28.427697 25511 insert_splits.cpp:35]未知的底部blob 'label'(layer ..