conv-neural-network相关内容
我在互联网上搜索了几个小时,以找到解决我问题的好方法.以下是一些相关的背景信息,可帮助您回答我的问题. 这是我的第一个深度学习项目,我不知道我在做什么.我知道理论但不知道实践元素. 我使用的数据可以在这个链接的 kaggle 上找到:(https://www.kaggle.com/alxmamaev/flowers-recognition) 我的目标是使用 CNN 根据数据集中提供的
..
我从这里获取了这个卷积神经网络 (CNN).它接受 32 x 32 图像并默认为 10 个类.但是,我有 500 个类的 64 x 64 图像.当我传入 64 x 64 图像(批量大小保持恒定为 32)时,出现以下错误. ValueError:预期输入 batch_size (128) 以匹配目标 batch_size (32). 堆栈跟踪从 loss = loss_fn(outputs,
..
我制作了一个卷积神经网络,我希望它拍摄输入图片和输出图片,但是当我将图片转换为张量时,它们的维度错误: RuntimeError: 4 维权重 [20, 3, 5, 5] 的预期 4 维输入,但得到大小为 [900, 1440, 3] 的 3 维输入 如何更改图片的尺寸?为什么需要改变?以及如何使输出成为图片?我尝试使用 transform = transforms.Compose([tra
..
ValueError Traceback(最近一次调用最后一次)在23 输出 = 模型(数据)24 # 计算批量损失--->25 损失 = 标准(输出,目标)26 # 反向传播:计算损失相对于模型参数的梯度27 loss.backward()C:\Users\mnauf\Anaconda3\envs\federated_lear
..
我正在训练一个小型网络,训练似乎进行得很顺利,val loss 减少,我达到了 80 左右的验证准确率,一旦没有更多改进,它实际上停止了训练(耐心 = 10).它训练了 40 个 epoch.然而,它一直只为每个测试图像预测一个类!我尝试随机初始化 conv 层,我添加了正则化器,我从 Adam 切换到 SGD,我添加了 clipvalue,我添加了 dropouts.我也切换到了 softmax
..
TF 文档在 tf.conv2d_transpose 中有一个 output_shape 参数.为什么需要这个?层的步幅、过滤器大小和填充参数不是决定了该层的输出形状,类似于卷积过程中的决定方式吗? 解决方案 这个问题已经在 TF github 并收到答复: output_shape 是需要的,因为输出的形状不能必须根据输入的形状计算,特别是如果输出小于过滤器,我们使用有效填充所以输
..
我在 Keras 中使用 CNN 来完成 NLP 任务,而不是最大池化,我试图实现随时间推移的最大池化. 关于如何实现这一目标的任何想法/技巧? 我所说的最大值随时间池化的意思是池化最高值,无论它们在向量中的哪个位置 解决方案 假设你的数据形状是 (batch_size, seq_len, features) 你可以申请: seq_model = Reshape((seq_l
..
我试图了解 Darknet 的工作原理,我正在查看 yolov3-tiny 配置文件,特别是 第 13 层(第 107 行). [卷积]批量标准化=1过滤器=256大小=1步幅=1垫=1激活=泄漏 内核的大小为 1x1,步长为 1,填充也为 1.当我使用darknet加载网络时,说明输出的宽高和输入的一样: 13 conv 256 1 x 1/1 13 x 13 x1024 ->13 x 1
..
我有 一个网络,我想在 pytorch 中实现它,我似乎无法弄清楚如何实现“纯"卷积.在 tensorflow 中,它可以这样完成: def conv2d_flipkernel(x, k, name=None):返回 tf.nn.conv2d(x,flipkernel(k),name=name,步幅=(1, 1, 1, 1), padding='SAME') flipkernel 函数是:
..
Caffe 不仅可以打印整体准确度,还可以打印每类准确度. 在 Keras 日志中,只有整体准确性.我很难计算单独的类别准确率. 纪元168/2000s - 损失:0.0495 - acc:0.9818 - val_loss:0.0519 - val_acc:0.9796纪元169/2000s - 损失:0.0519 - acc:0.9796 - val_loss:0.0496 - val
..
总的来说,我对 Tensorflow 和 ML 还很陌生,所以我在此为一个(可能的)微不足道的问题道歉. 我使用 dropout 技术来提高我的网络的学习率,它似乎工作得很好.然后,我想在一些数据上测试网络,看看它是否像这样: def Ask(self, image):返回 self.session.run(self.model, feed_dict = {self.inputPh: i
..
我正在尝试创建一个 CNN 来对数据进行分类.我的数据是 X[N_data, N_features]我想创建一个能够对其进行分类的神经网络.我的问题是关于 keras 后端的 Conv1D 的输入形状. 我想重复一个过滤器......假设有 10 个特征,然后对接下来的 10 个特征保持相同的权重.对于每个数据,我的卷积层将创建 N_features/10 个新神经元.我该怎么做?我应该在
..
我对神经网络和 keras 有点陌生.我有一些大小为 6*7 的图像,过滤器的大小为 15.我想有几个过滤器并在每个过滤器上分别训练一个卷积层,然后将它们组合起来.我在这里看过一个例子: model = Sequential()model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1],border_mode='valid
..
我正在运行 TensorFlow,但我碰巧有一些产生 NaN 的东西.我想知道它是什么,但我不知道如何做到这一点.主要问题是,在“正常"过程程序中,我只会在执行操作之前编写一个打印语句.TensorFlow 的问题是我不能这样做,因为我首先声明(或定义)了图形,因此向图形定义添加打印语句无济于事.是否有任何规则、建议、启发式方法或任何方法可以追踪可能导致 NaN 的原因? 在这种情况下,我更
..
我想在 Pytorch 中将预训练的 CNN(如 VGG-16)转换为完全卷积网络.我该怎么做? 解决方案 您可以按如下方式进行(请参阅评论说明): 导入火炬将 torch.nn 导入为 nn从 torchvision 导入模型# 1. 加载预训练的 VGG16模型=models.vgg16(预训练=真)# 2. 获取转换层特征 = 模型.特征# 3. 获得完全连接的层fcLayers
..
我正在阅读 神经转移 pytorch 教程 并且对使用 retain_variable(已弃用,现在称为 retain_graph).代码示例显示: class ContentLoss(nn.Module):def __init__(self, target, weight):super(ContentLoss, self).__init__()self.target = target.deta
..
我有 10 个类数据集,我得到了 85% 的准确率,在保存的模型上得到了相同的准确率.现在我想添加一个新类,如何将一个新类添加到保存的模型中.我尝试删除最后一层并进行训练,但模型过度拟合,并且在预测中每个图像都显示相同的结果(新添加的类). 这是我做的 model.pop()base_model_layers = 模型.输出pred = Dense(11, activation='soft
..
我对更新 Keras 中现有的图层参数感兴趣(不是删除图层并插入一个新图层,而是修改现有参数). 我将举一个我正在编写的函数的例子: def add_filters(self, model):conv_indices = [i for i, layer in enumerate(model.layers) if 'convolution' in layer.get_config()['na
..
我正在 tensorflow 中训练一个模型,我正在为我的模型做检查点.我在Checkpoints目录下,我有四个文件, 检查点 model.cpkt-0.data-00000-of-00001 model.cpkt-0.index model.cpkt-0.meta 现在我想提取图中每一层的权重值,我该怎么做? 我试过了: 将 tensorflow 导入为 tfses
..
比如说,我想训练一个 CNN 来检测图像是否是汽车. 选择“Not-Car"数据集的最佳实践或方法有哪些? 因为这个数据集可能是无限的(基本上不是汽车的任何东西) - 是否有关于数据集需要多大的指导方针?它们是否应该包含与汽车非常相似但又不是(飞机、船只等)的对象? 解决方案 与所有监督式机器学习一样,训练集应该反映模型将要使用的真实分布.神经网络基本上是一个函数逼近器.您的实
..