neural-network相关内容

PyTorch:如何在任何给定时刻更改优化器的学习速度(无LR时间表)

在PyTorch中是否可以在训练过程中动态更改优化器的学习速度(我不想预先定义学习速度计划)? 假设我有一个优化器: optim = torch.optim.SGD(model.parameters(), lr=0.01) 现在由于我在训练中做了一些测试,我意识到我的学习速度太快了,所以我想把它改为0.001。似乎没有方法optim.set_lr(0.001),但有什么方法可以做到 ..
发布时间:2022-07-24 09:55:50 Python

Django:只为`made.py runserver`执行代码,不为`Migrate`、`hel`等执行代码

我们正在使用Django作为一个网站的后端,该网站提供各种内容,其中使用神经网络使用TensorFlow来回答某些请求。 为此,我们创建了AppConfig,并将此应用程序配置的加载添加到Django的settings.py中的INSTALLED_APPS。一旦初始化,此AppConfiger就会加载神经网络: settings.py: INSTALLED_APPS = [ ... ..
发布时间:2022-07-23 13:46:20 Python

如何在WEKA中用新的训练数据更新训练过的模型(weka.classifiers.functions.MultilayerPerceptron)?

我要加载我以前训练的模型,然后使用新的训练数据更新此模型。但我发现这项任务很难完成。 我从Weka Wiki了解到 可以以增量方式训练实现weka.ategfiers.Updateable分类器接口的分类器。 但是,我训练的回归模型使用的是weka.classifiers.functions.MultilayerPerceptron分类器,该分类器没有实现可更新分类器。 然 ..

什么是自适应平均池,它是如何工作的?

最近,当我尝试实现AlexNet时,我在Pytorch中遇到了一个方法。 我不明白它是怎么运作的。请举几个例子解释一下背后的想法。在神经网络功能方面,它与Maxpooling或Average Poling有何不同 nn.AdaptiveAvgPool2d((6,6)) 推荐答案 在平均池化或最大池化中,基本上由您自己设置步长和内核大小,并将它们设置为超参数。如果您碰巧更改了输入大 ..
发布时间:2022-06-23 18:12:16 Python

有没有关于Kera中默认的权重初始值设定项的解释?

我刚刚在here中读到了Kera权重初始值设定项。在文档中,只介绍了不同的初始值设定项。例如: model.add(Dense(64, kernel_initializer='random_normal')) 我想知道当我未指定kernel_initializer参数时,默认权重是多少。 有办法访问它吗? 推荐答案 每一层都有自己的初始化权重的默认值。对于大多数层,例如Den ..
发布时间:2022-06-22 20:51:32 AI人工智能

神经网络的局部逆

我有一个有N个输入节点和N个输出节点的神经网络,其中可能有多个隐藏层和递归,但首先让我们忘记这些。神经网络的目标是学习N维变量Y*,给定N维值X。假设神经网络的输出是Y,学习后应该接近Y*。我的问题是:有没有可能得到输出Y*的神经网络的逆?也就是说,我如何得到X*的值,当我把它放入神经网络中时,它会产生Y*?(或类似的东西) 问题的一个主要部分是N非常大,通常在10000或100000量级,但如 ..
发布时间:2022-04-17 10:55:26 其他开发

如何使用KERAS(TensorFlow)限制神经网络回归中的预测输出总和(TensorFlow)

我正在训练Keras(python,后端:TensorFlow)中的神经网络作为回归。因此,我的输出层不包含激活函数,并且我使用均方误差作为我的损失函数。 我的问题是:我希望确保所有产量估计的总和(几乎)等于所有实际标签的总和。 我的意思是:我不仅要确保每个训练示例i的(Y_Real)^i~(Y_Recast)^i,而且要保证sum(Y_Real)=sum(Y_Recast),对所有i求和 ..
发布时间:2022-02-26 19:11:29 AI人工智能

什么是卷积神经网络中的激活、激活梯度、权重梯度和权重梯度?

我刚刚阅读完CNNS上Stanford的CS231n的the notes,有一个指向实时demo的链接;但是,我不确定演示中的“激活”、“激活梯度”、“权重”和“权重梯度”指的是什么。下面的屏幕截图是从演示中复制的。 念力点位1 我首先感到困惑的是,“激活”指的是输入层。根据笔记,我认为激活层指的是CNN中的RELU层,它本质上告诉CNN哪些神经元应该被点亮(使用RELU功能)。我不确 ..
发布时间:2022-02-25 18:04:11 其他开发

卷积神经网络与下采样?

读完这个主题我不太理解:神经网络中的“卷积”与简单的下采样或“锐化”功能相比吗? 您能否将此术语分解为简单易懂的图像/类比? 编辑:在第一个答案之后重新表述:合并是否可以理解为权重矩阵的缩减抽样? 推荐答案 卷积神经网络是一系列经经验证明在图像识别方面非常有效的模型。从这个角度看-CNN与下采样完全不同。 但在CNN设计中使用的框架中有一些可以与下采样技术相媲美的东西 ..

如何在TensorFlow中使用相同的权重进行初始化?

我正在使用TensorFlow构建CNN模型,我想知道是否可以以某种方式设置权重初始化的种子,以便能够在任何地方都拥有相同的种子,以便可以在我的模型的不同体系结构之间进行比较。在堆栈溢出问题上找到了类似Tensorflow weight initialization的答案,但对我没有真正的帮助,因此我们将感谢您的帮助。提前感谢! 推荐答案 您可以根据需要在所有层设置kernel_ini ..

增加神经元或权重会增加还是降低学习率?

我有一个卷积神经网络,我修改了它的体系结构。我没有时间重新培训和执行交叉验证(在最佳参数上进行网格搜索)。我想直观地调整学习速率。 我应该增加还是降低我的RMS(基于SGD)优化器的学习率,条件是: 我将更多神经元添加到完全连接层? 在卷积神经网络上,我在完全连接之前去除子采样(平均或最大池)层,并增加该特征映射和Softmax输出之间的完全连接单元的数量(以便有更多更多的权重连接到 ..

反向传播和渐变下降使用相同的逻辑吗?

CNN使用反向传播来更新随机分配的权重、偏差和过滤器。对于值的更新,我们从头到尾使用链式规则找出梯度,并使用公式 New Value = old value - (learning Rate * gradient) 梯度下降是一个优化器,用于优化损失函数。这里还计算了梯度,公式为 New value = old value - (learning Rate * gradient) ..

KERAS中的默认权重初始值设定项是什么?

我刚刚在here中读到了Kera权重初始值设定项。在文档中,只介绍了不同的初始值设定项。例如: model.add(Dense(64, kernel_initializer='random_normal')) 我想知道未指定kernel_initializer参数时的默认权重。 有办法访问它吗? 推荐答案 每层都有自己的默认值来初始化权重。对于大多数层,如Dense、卷积、R ..
发布时间:2022-02-22 13:50:57 AI人工智能