deep-learning相关内容
我必须使用学习速率预热,您可以使用学习速率预热开始为CIFAR-10训练VGG-19CNN,在前10000次迭代(或大约13个纪元)中从0.00001到0.1%的学习速率预热。然后对于剩余的训练,您使用学习率0.01,其中学习率衰减被用来在80和120个历元将学习率降低10倍。该模型总共需要训练144个纪元。 我使用的是Python3和TensorFlow2,其中训练数据集有50000个示例
..
我使用的是TensorFlow v2中定义为子模块的keras。我正在使用fit_generator()方法训练我的模型。我想每10个纪元保存一次我的模型。我如何实现这一点? 在Kera中(不作为Tf的子模),我可以给出ModelCheckpoint(model_savepath,period=10)。但在TFv2中,他们将其更改为ModelCheckpoint(model_savepath
..
我正在使用tesseract-ocr 4.0从图像中提取表格文本,并在保持数据对齐的同时将结果导出到Excel中。 我希望在提取的表中保持图像中的所有空间不变。但OCR会跳过许多前导空格和尾随空格,并将其删除。 我有一些图像,在某些位置,表中出现空格。我在tesseract中使用了保留空白选项,但OCR仍然跳过了很多空格。 在使用OCR进行提取时,有没有办法检测或保留表中的所有空
..
我在使用Slurm训练一批卷积神经网络方面还是个新手。为了轻松跟踪所有训练有素的CNN,我想将Slurm的jobID作为输入参数传递给python。将其他变量作为参数传递可以很好地工作。但是,我无法访问Slurm作业ID以通过。 我已经尝试使用${SLURM_JOBID}、${SLURM_JOB_ID}、%j和%J。我还尝试将这些Slurm环境变量写入到一个变量中,然后再将其传递到Pytho
..
我正尝试在for循环中多次运行model.predict(),并计算对同一图像执行该操作所需的时间。这些数据将用于平均运行预测所需的时间。 如果我在单独的脚本中运行预测,在我的MacBook上它将在大约300ms秒内运行。如果我随后在for循环中迭代地运行它,则第一次迭代所用的时间将从300ms左右开始,然后在其余迭代中下降到80ms。 是否因为第一个预测保留在内存中,而Kera正在幕
..
我已经在Google CoLab中使用GPU调整了这段代码,以创建一个多层LSTM。它用于时间序列预测。 from keras.models import Sequential from keras.layers import Dense from keras.layers import LSTM import tensorflow as tf from tensorflow.keras.m
..
这只是设置相同内容的不同方式,还是它们实际上有不同的含义?这与网络配置有关吗? 在一个简单的示例中,我看不到以下各项之间的任何区别: model = Sequential() model.add(LSTM(1, batch_input_shape=(None,5,1), return_sequences=True)) model.add(LSTM(1, return_sequences
..
作为Deep Learning的新手,我正在努力理解不同技术状态的算法及其用途之间的差异。就像RESNET或VGG与yolo或rcnn系列有什么不同。它们是这些检测模型的子组件吗?固态硬盘是否也是像yolo或rcnn这样的另一个系列? 推荐答案 Resnet是一族神经网络(使用残差函数)。很多神经网络使用ResNet架构,例如: ResNet18、ResNet50 宽ResNe
..
我正在训练CNN架构,以使用PyTorch解决回归问题,其中我的输出是20个值的张量。我计划使用RMSE作为模型的损失函数,并尝试使用PyTorch的nn.MSELoss()并使用torch.sqrt()求它的平方根,但在获得结果后感到困惑,我将尽力解释原因。很明显,对于批大小bs,我的输出张量的维数将是[bs , 20]。我尝试实现我自己的AND RMSE函数: def loss_f
..
我想了解为什么目标网络在DQN中是必需的?我正在读一篇关于“通过深度强化学习实现人的水平控制”的论文 我理解Q-Learning。Q-Learning是一种基于值的强化学习算法,它学习状态-动作之间的“最佳”概率分布,从而在一系列时间步长上最大化其长期贴现回报。 q学习使用Bellman方程进行更新,q学习更新的单个步骤由 给出 Q(S, A) = Q(S, A) + $alpha
..
我是Google CoLab新手。 我正尝试在那里进行深度学习。 我已经编写了一个类来创建和训练LSTM网络,只使用python,而不是任何特定的深度学习库,如TensorFlow、pytorch等。 我认为我使用的是GPU,因为我在CoLab中正确选择了运行时类型。 但是,在代码执行期间,我有时收到退出GPU模式的消息,因为我没有使用它。 因此,我的问题是:如何使用Go
..
我有一个很大的数据集,我想用它来训练带有Kera的CNN(太大了,无法将其加载到内存中)。我总是使用ImageDataGenerator.flow_from_dataframe进行培训,因为我将图像放在不同的目录中,如下所示。 datagen = ImageDataGenerator( rescale=1./255. ) train_gen=datagen.flow_from_dat
..
我是深度学习领域的新手,所以请不要像Reddit那样刻薄!这似乎是一个一般性问题,因此我不会在此给出我的代码,因为它似乎没有必要(如果是,这里有指向colab的链接) 关于数据:您可以找到原始数据here。它是原始数据集82 GB的缩小版本。 一旦我训练我的CNN,它每次都会预测‘没有糖尿病视网膜病变’(没有DR),准确率达到73%。这是因为有大量的无DR映像还是其他原因?我没有头绪!
..
我刚刚阅读完CNNS上Stanford的CS231n的the notes,有一个指向实时demo的链接;但是,我不确定演示中的“激活”、“激活梯度”、“权重”和“权重梯度”指的是什么。下面的屏幕截图是从演示中复制的。 念力点位1 我首先感到困惑的是,“激活”指的是输入层。根据笔记,我认为激活层指的是CNN中的RELU层,它本质上告诉CNN哪些神经元应该被点亮(使用RELU功能)。我不确
..
读完这个主题我不太理解:神经网络中的“卷积”与简单的下采样或“锐化”功能相比吗? 您能否将此术语分解为简单易懂的图像/类比? 编辑:在第一个答案之后重新表述:合并是否可以理解为权重矩阵的缩减抽样? 推荐答案 卷积神经网络是一系列经经验证明在图像识别方面非常有效的模型。从这个角度看-CNN与下采样完全不同。 但在CNN设计中使用的框架中有一些可以与下采样技术相媲美的东西
..
我正在为Food-101数据集(图像数据集w/101类和每个类1k图像)构建分类器。我的方法是使用KERAS,并通过ResNet50(来自ImageNet的权重)转移学习。 在训练模型时,训练精度在几个历元(30%-->45%)内有较好的提高,但验证精度基本上保持在0.9%-1.0%。我尝试过简化、交换优化器、减少和增加隐藏层中的单位、剥离所有图像增强,并在flow_from_directory
..
我正在构建一个可以对Knots进行分类的分类器。目前我有一个数据集,其中包含100,000张“解结”、100,000张“加三叶”和100,000张“负三叶”的图像。 在过去的40多天里,我一直在尝试让分类器处理这么大的数据集。到目前为止,我遇到的问题有: 1)数据集不适合CPU主内存:通过使用PyTables和Hdf5创建一些EArrays并将其追加到磁盘上,修复了此问题。现在我有一个1.
..
我有一个卷积神经网络,我修改了它的体系结构。我没有时间重新培训和执行交叉验证(在最佳参数上进行网格搜索)。我想直观地调整学习速率。 我应该增加还是降低我的RMS(基于SGD)优化器的学习率,条件是: 我将更多神经元添加到完全连接层? 在卷积神经网络上,我在完全连接之前去除子采样(平均或最大池)层,并增加该特征映射和Softmax输出之间的完全连接单元的数量(以便有更多更多的权重连接到
..
我正在使用pytorch-1.5执行一些gan测试。我的代码是非常简单的GAN代码,正好适合sin(X)函数: import torch import torch.nn as nn import numpy as np import matplotlib.pyplot as plt # Hyper Parameters BATCH_SIZE = 64 LR_G = 0.0001 LR_D
..
我正在处理的数据集对应于各个时间序列信号。每个信号都是唯一的,具有不同的数据点总数,尽管每个信号代表相同的语义数据(速度单位为每小时英里)。 我正在与凯拉斯一起工作,并试图将一个基本的神经网络与数据相匹配,只是为了对其进行评估。以下是该功能的Python代码: model = Sequential() model.add(Dense(64, activation='relu')) mo
..