conv-neural-network相关内容
我有一个卷积神经网络,我修改了它的体系结构。我没有时间重新培训和执行交叉验证(在最佳参数上进行网格搜索)。我想直观地调整学习速率。 我应该增加还是降低我的RMS(基于SGD)优化器的学习率,条件是: 我将更多神经元添加到完全连接层? 在卷积神经网络上,我在完全连接之前去除子采样(平均或最大池)层,并增加该特征映射和Softmax输出之间的完全连接单元的数量(以便有更多更多的权重连接到
..
我有一个大小为(140000,22)维的数据框。 我必须创建等维数的二维数组才能将其传递到卷积神经网络。 您能指导一下如何对此数据帧进行转换吗 推荐答案 只需在DataFrame上调用.values即可。 例如,如果您的数据帧名为df,则可以将df.values传递给卷积神经网络。
..
代码 import numpy as np from keras.preprocessing.image import ImageDataGenerator from keras.models import Sequential,Model from keras.layers import Dropout, Flatten, Dense,Input from keras import app
..
CNN使用反向传播来更新随机分配的权重、偏差和过滤器。对于值的更新,我们从头到尾使用链式规则找出梯度,并使用公式 New Value = old value - (learning Rate * gradient) 梯度下降是一个优化器,用于优化损失函数。这里还计算了梯度,公式为 New value = old value - (learning Rate * gradient)
..
我正在尝试使用RandomSearch创建CNN模型,但速度非常慢,并弹出此错误tensorflow:Callback method on_train_batch_end is slow compared to the batch time 我在Google CoLab中运行我的代码,并在GPU上设置了硬件加速 这是我的代码 def model_builder(hp): model=
..
我希望对单个示例或一批示例进行并行化(在我的情况下,我只有CPU,最多可以有112个)。我试过了,但我得到了一个错误,即损失不能从单独的进程中获得梯度(这完全破坏了我的尝试)。我仍然想这样做,重要的是,在多进程处理之后,我可以执行优化器步骤。我怎么才能绕过它呢?我做了一个完全自成体系的例子: import torch import torch.nn as nn from torch.opt
..
我尝试制作一个卷积神经网络来对狗和猫进行分类.我在标题中提到了错误. 从我的搜索来看,有人说错误属于不同版本的tensorflow和keras库,也有人说是语法错误.我会把我的代码放在这里,告诉我哪里出错了. #IMPORTING LIBRARIES将张量流导入为 tf将熊猫导入为 pd导入 keras从 keras.preprocessing.image 导入 ImageDataGene
..
所以我遇到了一个问题,即如何在 Keras 中将 CNN 与 RNN 结合起来.在发布问题时,有人指出这是解决问题的正确方法.显然我只是忽略了原始代码中的一些内容,这让我回答了我自己的问题. 原来的问题如下: 如何在 Keras 中创建一个模型,将图像序列作为输入,CNN“查看"每个单独的图像,并将 CNN 输出序列输入 RNN? 为了更清楚: 模型一:查看单个图像的 CN
..
比如说,我想训练一个 CNN 来检测图像是否是汽车. 选择“非汽车"数据集有哪些最佳做法或方法? 因为这个数据集可能是无限的(基本上任何不是汽车的东西) - 是否有关于数据集需要多大的指南?它们是否应该包含与汽车非常相似但又不是汽车的物体(飞机、船等)? 解决方案 与所有监督机器学习一样,训练集应该反映模型将要使用的真实分布.神经网络基本上是一个函数逼近器.您的实际目标是近似真
..
我正在尝试使用预训练模型.这就是问题发生的地方 模型不应该采用简单的彩色图像吗?为什么它需要 4 维输入? RuntimeError Traceback(最后一次调用)在()3334 # 通过模型前向传递数据--->35 输出 = 模型(数据)36 init_pred = output.max(1, keepdim=Tr
..
我已经搜索了很多地方,但我得到的只是如何安装它,而不是如何验证它是否已安装.我可以验证我的 NVIDIA 驱动程序已安装,并且 CUDA 已安装,但我不知道如何验证 CuDNN 已安装.非常感谢您的帮助,谢谢! 附言. 这是针对 caffe 实现的.目前,在没有启用 CuDNN 的情况下一切正常. 解决方案 安装 CuDNN 只需要将文件放在 CUDA 目录中.如果您在安装 caf
..
我正在尝试训练 Tensorflow 卷积神经网络,但无论我运行程序的环境如何,我总是遇到一个神秘的错误. 在 Jupyter Notebook 中,内核会死掉. 在终端中,我收到“Illegal Instruction: 4"且没有回溯. 在 Pycharm 中,我得到:“进程已完成,退出代码为 132(被信号 4:SIGILL 中断)". 我查看了整个 Internet
..
def __init__(self):super().__init__()self.conv = nn.Sequential(nn.Conv2d(1, 64, kernel_size=5, stride=2, bias=False),nn.BatchNorm2d(64),nn.ReLU(),nn.Conv2d(64, 64, kernel_size=3, stride=2,bias=False)
..
我将带有 dtype 的 torch.uint8 的 torch.Tensor 传递给 nn.Conv2d> 模块,它给出了错误 RuntimeError: 值不能被转换为类型 uint8_t溢出:-0.0344873 我的 conv2d 定义为 self.conv1 = nn.Conv2d(3, 6, 5).当我将张量传递给像 self.conv1(x) 这样的模块时,错误出现在我的
..
Pytorch 新手来了!我正在尝试微调 VGG16 模型以预测 3 个不同的类别.我的部分工作涉及将 FC 层转换为 CONV 层.但是,我的预测值不在 0 到 2(3 个类别)之间. 有人能给我指出一个关于如何计算最后一层正确尺寸的好资源吗? 以下是 VGG16 的原始 fC 层: (分类器):顺序((0):线性(输入特征=25088,输出特征=4096,偏差=真)(1): Re
..
我已经使用 mmdnn 将两个模型(vgg16 和 resnet50)从 Keras 和 TensorFlow 后端(从作为 model.save 文件)转换为 PyTorch.这是通过以下方式完成的: mmconvert -sf keras -iw vgg.h5 -df pytorch -om keras_to_torch.ptA = imp.load_source('MainModel','
..
我正在尝试在 Pytorch 上使用 Mc Dropout 实现贝叶斯 CNN,主要思想是,通过在测试时应用 dropout 并运行多次前向传递,您可以获得来自各种不同模型的预测.我找到了 Mc Dropout 的一个应用,但我真的不明白他们是如何应用这种方法的,以及他们究竟是如何从预测列表中选择正确的预测的 这是代码 def mcdropout_test(模型):模型.train()测试
..
我正在尝试通过 PyTorch 的顺序容器构建一个 cnn,我的问题是我不知道如何展平图层. main = nn.Sequential()self._conv_block(main, 'conv_0', 3, 6, 5)main.add_module('max_pool_0_2_2', nn.MaxPool2d(2,2))self._conv_block(main, 'conv_1', 6, 1
..
我是 Pytorch 的新手.在开始使用 CNN 进行训练之前,我一直在尝试学习如何查看输入图像.我很难将图像更改为可与 matplotlib 一起使用的形式. 到目前为止,我已经尝试过: from multiprocessing import freeze_support进口火炬从火炬进口nn进口火炬视觉从 torch.autograd 导入变量从 torch.utils.data 导入
..
我正在尝试实现一个包含两个图像的连体网络.我加载这些图像并创建两个单独的数据加载器. 在我的循环中,我想同时通过两个数据加载器,以便我可以在两个图像上训练网络. for i, data in enumerate(zip(dataloaders1, dataloaders2)):# 获取输入输入 1 = 数据 [0][0].cuda(async=True);标签1 = 数据[0][1].cu
..