neural-network相关内容

偏差在神经网络中的作用是什么?

我知道梯度下降和反向传播算法.我不明白的是:什么时候使用偏见很重要,以及如何使用它? 例如,当映射AND函数时,当我使用2个输入和1个输出时,它不能给出正确的权重,但是,当我使用3个输入(其中1个是偏差)时,它给出正确的重量. 解决方案 我认为偏见几乎总是有帮助的.实际上,偏差值使您可以将激活功能向左或向右移动,这对于成功学习至关重要. 看一个简单的例子可能会有所帮助.考虑一下 ..

Torch/Lua,如何在暹罗神经网络中正确实施小批量训练?

正如我之前的一些问题所提到的,我仍在努力在Torch中实现暹罗神经网络. 我终于有了一个很好的工作实现,但是现在我想添加一个小批量培训.也就是说,我想用一组训练元素来训练暹罗神经网络,而不是只使用一个. 不幸的是,我的2个迷你批次的实现无法正常工作.错误的反向传播存在一个我无法解决的问题. 这是主要架构: th> perceptron_general nn.Sequential { ..
发布时间:2020-05-04 07:03:55 其他开发

如何使用Torch生成的模型进行预测?

我已经执行了 neuralnetwork_tutorial.lua .现在有了模型,我想用一些自己的手写图像对其进行测试.但是我尝试了多种方法来存储权重,现在通过使用但是现在我尝试使用model:forward(testImageTensor) 来预测自己的手写图像(转换为28X28 DoubleTensor) ...ches/torch/install/share/lua/5.1/dp/mo ..
发布时间:2020-05-04 06:57:45 其他开发

输入包含NaN,无穷大或Tensorflow中的dtype('float64')太大的值

我正在尝试训练LSTM,并且在我的模型中,我的学习速率呈指数下降,并且有一个下降层.为了在测试和验证时停用辍学层,我为辍学率放置了一个占位符,并将其默认值设置为1.0,而在训练时我将其设置为0.5. dropou_rate占位符值将传递到tf.layers.dropout().在验证过程中运行此程序时,出现以下错误. ValueError:输入包含NaN,无穷大或值对于 dtype('flo ..
发布时间:2020-05-04 06:25:49 其他开发

Shai的LSTM实现生成的.prototxt文件中的DataLayer放置

关于@Shai在用于Caffe的LSTM模块中提供的答案,其中caffe.NetSpec()用于及时显式展开LSTM单元进行训练. 使用此代码实现,为什么"DummyData"层或用作输入X的任何数据层为何出现在prototxt文件中t0时间步骤的末尾,恰好在"t1/lstm/Mx"之前?我不明白... 因此需要一种操作(剪切/粘贴). 解决方案 Shai 的NetSpec L ..

Tensorflow:在LSTM中显示或保存忘记门数值

我正在使用在tensorflow中默认提供的LSTM模型.我想检查或知道如何在每个步骤中保存或显示“忘记门"的值,是否有人在此之前或至少做了类似的事情? 到目前为止,我已经尝试过使用tf.print,但是出现了很多值(甚至比我期望的还要多).我会尝试使用张量板绘制某些东西,但是我认为这些门只是变量,而不是我可以打印的额外层(也因为它们在TF脚本中) 任何帮助都会得到好评 解决方案 ..
发布时间:2020-05-04 06:24:04 Python

Tensorflow网格LSTM RNN TypeError

我正在尝试构建一个在Tensorflow中处理3D数据的LSTM RNN.从这篇论文来看,Grid LSTM RNN可以是n维的.我的网络的想法是使用3D卷[depth, x, y],网络应为[depth, x, y, n_hidden],其中n_hidden是LSTM单元递归调用的数量.这个想法是,每个像素都有自己的LSTM递归调用的“字符串". 输出应为[depth, x, y, n_c ..

什么时候停止训练神经网络?

我正在尝试使用RNN进行特定领域的分类研究,并且已经积累了数以千万计的文本.由于要花费数天甚至数月才能运行整个数据集,因此我只选择了其中的一小部分进行测试,例如1M文本(用于培训的80%,用于验证的20%).我使用词向量化对整个语料库进行了预训练,并且还对模型应用了Dropout以避免过度拟合.当它在12小时内训练了60000条文本时,损失已经下降到相当低的水平,准确性为97%.我应该继续还是不继 ..

为什么RNN总是输出1

我使用递归神经网络(RNN)进行预测,但出于某些奇怪的原因,它总是输出1.这里我用一个玩具示例对此进行解释: 示例 考虑一个尺寸为(360,5)的矩阵M和一个包含M行总和的向量Y.现在,我想使用RNN从M预测Y.使用rnn R软件包,我将模型训练为 library(rnn) M ..

如何处理极长的LSTM序列长度?

我有一些数据以非常高的速率(每秒数百次)采样.对于任何给定的实例,这平均导致序列长度很大(〜90,000个样本).整个序列只有一个标签.我正在尝试使用LSTM神经网络将新序列分类为这些标签之一(多类分类). 但是,使用具有如此长序列长度的LSTM会导致网络很大. 有什么方法可以有效地对这些序列进行“聚类",以便我可以减少神经网络的序列长度,但仍保持整个实例中捕获的信息? 解决方案 ..
发布时间:2020-05-04 06:22:01 其他开发

TensorFlow中的暹罗神经网络

我正在尝试在TensorFlow中实现暹罗神经网络,但是我在Internet上找不到任何有效的示例(请参阅 我要构建的体系结构将由两个共享权重的LSTM组成,并且仅在网络末端连接. 我的问题是:如何在TensorFlow中建立两个不同的神经网络,以共享它们的权重(并列权重),以及如何在最后连接它们? 谢谢:) 编辑:我实现了一个简单而有效的暹罗网络示例,解决方案 使用tf.la ..
发布时间:2020-05-04 06:20:28 其他开发

PyTorch-contiguous()

我正在github上查看LSTM语言模型的示例contiguous()的作用,这在代码中多次发生. 例如,在代码输入的第74/75行中,创建了LSTM的目标序列. 数据(存储在ids中)为二维,其中第一维为批处理大小. for i in range(0, ids.size(1) - seq_length, seq_length): # Get batch inputs and ..
发布时间:2020-05-04 06:20:26 其他开发

张量流BasicLSTMCell中的num_units是什么?

在MNIST LSTM示例中,我不理解“隐藏层"的含义.当您表示一段时间后展开的RNN时,它是虚构层吗? 为什么在大多数情况下num_units = 128是? 解决方案 隐藏单元数直接表示神经网络的学习能力-它反映了学习参数的数量 .值128可能是任意或经验选择的.您可以实验性地更改该值,然后重新运行程序以查看它如何影响训练精度(隐藏的单元数很多可以达到90%的测试精度).使用更多 ..