neural-network相关内容

如何使用张量流构建多输入图?

是否可以定义具有多个输入的 TensorFlow 图?例如,我想给图形两个图像和一个文本,每个图像都由一堆图层处理,最后是一个 fc 图层.然后有一个节点计算一个考虑了三种表示的损失函数.目的是让三个网络在考虑联合表示损失的情况下进行反向传播.是否可以?有关于它的示例/教程吗? 解决方案 这完全是直截了当的事情.对于“一个输入",你会有类似的东西: def build_column(x, ..
发布时间:2021-12-31 16:57:23 其他开发

XOR 神经网络误差在训练期间停止减少

我正在使用随机梯度下降通过反向传播训练 XOR 神经网络.神经网络的权重被初始化为 -0.5 到 0.5 之间的随机值.神经网络在大约 80% 的时间内成功地自我训练.然而,有时它在反向传播时会“卡住".通过“卡住",我的意思是我开始看到错误纠正率下降.例如,在成功的训练过程中,总误差随着网络学习而迅速减少,如下所示: ......此训练集的总误差:0.0010008071327708653此训 ..
发布时间:2021-12-31 16:57:13 其他开发

在构建 CNN 时,我收到来自 Keras 的抱怨,这些抱怨对我来说毫无意义.

我的输入形状应该是 100x100.它代表一个句子.每个词是一个 100 维的向量,一个句子最多有 100 个词. 我向 CNN 输入了 8 个句子.我不确定这是否意味着我的输入形状应该改为 100x100x8. 然后是以下几行 Convolution2D(10, 3, 3, border_mode='same',input_shape=(100, 100)) 抱怨: 输入 ..
发布时间:2021-12-31 16:57:03 Python

二进制数而不是一个热向量

在进行逻辑回归时,通常的做法是使用一个热向量作为所需的结果.所以,no of classes = no of nodes in output layer.我们不使用词汇中的词索引(或一般的类号),因为这可能会错误地表明两个类的接近程度.但是为什么我们不能用二进制数代替 one-hot 向量呢? 即如果有 4 个类,我们可以将每个类表示为 00,01,10,11,从而导致输出层中的 log(n ..

Keras:重塑以连接 lstm 和 conv

这个问题也作为 github 问题 存在.我想在 Keras 中构建一个包含 2D 卷积和 LSTM 层的神经网络. 网络应该对 MNIST 进行分类.MNIST 中的训练数据是 60000 张手写数字从 0 到 9 的灰度图像.每张图像为 28x28 像素. 我已将图像分成四部分(左/右、上/下)并按四个顺序重新排列它们以获得 LSTM 的序列. |||1 |2||图片|->--- ..
发布时间:2021-12-31 16:56:39 AI人工智能

TensorFlow dynamic_rnn 状态

我的问题是关于 TensorFlow 方法 tf.nn.dynamic_rnn.它返回每个时间步的输出和最终状态. 我想知道返回的最终状态是最大序列长度时单元格的状态还是由 sequence_length 参数单独确定. 为了更好地理解一个例子:我有 3 个序列,长度为 [10,20,30] 并返回最终状态 [3,512](如果隐藏状态单元格的长度为 512). 这三个序列的三个 ..

Keras Callback EarlyStopping 比较训练和验证损失

我正在Python Keras 中拟合一个神经网络. 为了避免过度拟合,我想监控训练/验证损失并创建一个适当的回调,当训练损失远小于验证损失时停止计算. 回调的一个例子是: callback = [EarlyStopping(monitor='val_loss', value=45,verbose=0, mode='auto')] 当训练损失与验证损失相比太小时,有没有办法停止训练 ..
发布时间:2021-12-31 16:56:03 Python

实现 Barabasi-Albert 方法来创建无标度网络

我正在尝试实现一个非常简单的优先连接算法来创建无标度网络.它们的度数分布遵循幂律,即 P(k) ~ k^-g,其中 g 是指数.下面的算法应该产生指数等于 3 +/- 0.1 的度分布,我的实现没有指数接近 2.5 +/- 0.1.我显然在某处没有理解某些东西并继续出错. 对不起,如果这是在错误的地方,我无法决定它应该在 stackoverflow 还是 maths.stackexchang ..
发布时间:2021-12-31 16:55:57 其他开发

Keras 只训练特定的输出

我正在将 Kears 与 tensorflow 一起使用,并且我有一个带有 3 个输出的模型,我只想训练其中的 2 个. model = Model(input=input, output=[out1,out2,out3])model.compile(loss=[loss1, loss2, loss3], optimizer=my_optimizer)损失1(y_true,y_pred):返回计 ..
发布时间:2021-12-31 16:55:49 Python

将位于 Google Drive 中的图像数据集(文件夹或 zip)加载到 Google Colab?

我的 Google Drive 上有一个图像数据集.我在压缩的 .zip 版本和未压缩的文件夹中都有这个数据集. 我想使用 Google Colab 训练 CNN.如何告诉 Colab 我的 Google 云端硬盘中的图片在哪里? 官方教程对我没有帮助,因为它只展示了如何上传单个文件,而不是像我这样的包含 10000 个图像的文件夹. 然后我找到了这个答案,但解决方案还没有完成, ..
发布时间:2021-12-31 16:55:37 Python

弹性反向传播神经网络 - 关于梯度的问题

首先我想说我对神经网络真的很陌生,我不太了解它;) 我已经实现了反向传播神经网络的第一个 C# 实现.我已经使用 XOR 对其进行了测试,它看起来很有效. 现在我想更改我的实现以使用弹性反向传播(Rprop - http://en.wikipedia.org/wiki/Rprop). 定义说:“Rprop 只考虑所有模式的偏导数的符号(而不是幅度),并且独立作用于每个“权重". ..
发布时间:2021-12-31 16:55:27 其他开发

用于不平衡多类多标签分类的神经网络

如何处理在训练神经网络时产生不平衡结果的多标签分类?我遇到的解决方案之一是惩罚罕见标记类的错误.这是我设计网络的方式: 类数:100.输入层、第1隐藏层和第2层(100)与dropouts和ReLU全连接.第二个隐藏层的输出是py_x. cost = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=py_x,lab ..
发布时间:2021-12-31 16:55:18 AI人工智能

神经网络 - 输入值

我有一个可能微不足道的问题,但在我看过的任何地方都没有描述过.我正在研究神经网络,到处都是一些理论和一些简单的例子,其中一些 0 和 1 作为输入.我想知道:我是否必须只将一个值作为一个神经元的输入值,或者它可以是一个向量,比如说,3 个值(例如 RGB 颜色)? 解决方案 上述答案在技术上是正确的,但并没有解释简单的事实:永远 没有您需要的情况给单个神经元一个数字向量. 从实际的角 ..
发布时间:2021-12-31 16:54:55 其他开发

进化算法和神经网络是否用于同一领域?

我正在尝试了解各类机器学习算法之间的差异. 我知道进化算法的实现与神经网络的实现有很大不同. 然而,它们似乎都适合从一组潜在的嘈杂训练/历史数据中确定输入和输出之间的相关性. 从定性的角度来看,与进化算法相比,是否存在更适合作为神经网络目标的问题域? 我浏览了一些建议以互补方式使用它们的文章.有没有像样的用例示例? 解决方案 事情是这样的:在机器学习问题中,您通常有 ..

我的交叉熵函数实现有什么问题?

我正在学习神经网络,我想在 python 中编写一个函数 cross_entropy.它被定义为 其中N为样本数,k为类数,log为自然数对数,如果样本i在j类中,t_i,j为1,否则0,p_i,j 是样本i 属于j 类的预测概率.为了避免对数的数值问题,将预测剪裁到 [10^{−12}, 1 − 10^{−12}] 范围. 根据上面的描述,我通过将预测裁剪到 [epsilon, 1 ..

池化层或卷积层后的激活函数?

这些链接的理论表明,卷积网络的顺序是:Convolutional Layer - Non-linear Activation - Pooling Layer. 神经网络和深度学习(方程 (125) 深度学习书籍(第 304 页,第 1 段) Lenet(等式) 本标题来源 但是,在这些网站的最后一个实现中,它说顺序是:卷积层 - 池化层 - 非线性激活 network3.p ..
发布时间:2021-12-31 16:54:10 其他开发