lstm相关内容
任何非零 recurrent_dropout 都会产生 NaN 损失和权重;后者是 0 或 NaN.发生在堆叠、浅层、stateful、return_sequences = 任何、&没有 Bidirectional()、activation='relu'、loss='binary_crossentropy'.NaN 出现在几个批次内. 有任何修复吗?感谢帮助. 尝试进行故障排除:
..
普通 Dense 层中的第一个参数也是 units,并且是该层中神经元/节点的数量.然而,标准的 LSTM 单元如下所示: (这是“理解 LSTM 网络") 在 Keras 中,当我创建一个像这样的 LSTM 对象 LSTM(units=N, ...) 时,我实际上创建了这些 LSTM 单元的 N 吗?或者它是 LSTM 单元内“神经网络"层的大小,即公式中的 W ?还是别的什么?
..
我曾尝试使用 keras 训练 LSTM 模型,但我认为我这里出了点问题. 我有一个错误 ValueError: 检查输入时出错:预期 lstm_17_input 有3 维,但得到了形状为 (10000, 0, 20) 的数组 虽然我的代码看起来像 model = Sequential()model.add(LSTM(256, activation="relu", dropou
..
我正在做一个项目,我必须将 CNN 的输出传递给双向 LSTM.我创建了如下模型,但它抛出“不兼容"错误.请让我知道我哪里出错了以及如何解决这个问题 模型 = 顺序()model.add(Conv2D(filters = 16, kernel_size = 3,input_shape = (32,32,1)))model.add(BatchNormalization())model.add(Ma
..
我正在使用 LSTM 处理时间序列预测问题.输入包含几个特征,所以我使用的是多元 LSTM.问题是有一些缺失值,例如: 功能 1 功能 2 ... 功能 n1 2 4 南2 5 8 103 8 8 54 南 7 75 6 南 12 不是插入缺失值,这会在结果中引入偏差,因为有时在同一特征上有很多连续的时间戳具有缺失值,我想知道是否有办法让LSTM学习使用缺失值,例如,使用遮罩层或类似的东西?
..
给定一个经过训练的 LSTM 模型,我想对单个时间步长进行推理,即下面示例中的 seq_length = 1.在每个时间步之后,需要记住下一个“批次"的内部 LSTM(记忆和隐藏)状态.对于推理的最开始,给定输入计算内部 LSTM 状态 init_c, init_h.然后将它们存储在传递给 LSTM 的 LSTMStateTuple 对象中.在训练期间,每个时间步都会更新此状态.然而,对于推理,我
..
假设我有一个整数序列: 0,1,2, .. 并希望在给定最后 3 个整数的情况下预测下一个整数,例如: [0,1,2]->5、[3,4,5]->6 等 假设我像这样设置模型: batch_size=1time_steps=3模型 = 顺序()model.add(LSTM(4,batch_input_shape=(batch_size, time_steps, 1), st
..
我是 Keras 的新手,我正在尝试实现一个序列到序列的 LSTM.特别是,我有一个具有 9 个特征的数据集,我想预测 5 个连续值. 我把训练集和测试集分开,它们的形状分别是: X 火车 (59010, 9)X 测试 (25291, 9)Y火车 (59010, 5)Y 测试 (25291, 5) LSTM 目前非常简单: model = Sequential()model.add(L
..
我在为 Keras 上的 RNN 准备输入数据时遇到问题. 目前我的训练数据维度是:(6752, 600, 13) 6752:训练数据的数量 600:时间步数 13:特征向量的大小(向量在浮点数中) X_train 和 Y_train 都在这个维度上. 我想准备将这些数据输入 Keras 上的 SimpleRNN.假设我们正在经历时间步长,从步骤 #0 到步骤 #599
..
继续上一个问题:Tensorflow - TypeError: 'int' 对象不可迭代 我的训练数据是一个列表,每个列表包含 1000 个浮点数.例如,x_train[0] = [0.0, 0.0, 0.1, 0.25, 0.5, ...] 这是我的模型: model = Sequential()model.add(LSTM(128, activation='relu',input_
..
所以我一直在研究 LSTM Autoencoder 模型.我还创建了这个模型的各种版本. 1. 使用已经训练好的词嵌入创建模型:在这种情况下,我使用已经训练好的手套向量的权重作为特征(文本数据)的权重.这是结构: inputs = Input(shape=(SEQUENCE_LEN, EMBED_SIZE), name="input")编码 = 双向(LSTM(LATENT_SIZE),m
..
我正在尝试在 Keras 中构建文本 LSTM 自动编码器.我想使用嵌入层,但我不确定如何实现.代码如下所示. inputs = Input(shape=(timesteps, input_dim))embedding_layer = Embedding(numfeats + 1,EMBEDDING_DIM,权重 = [data_gen.get_embedding_matrix()],输入长度=
..
所以我正在尝试构建一个基于 LSTM 的自动编码器,我想将其用于时间序列数据.这些被分成不同长度的序列.因此,模型的输入具有 [None, None, n_features] 形状,其中第一个 None 代表样本数,第二个代表序列的 time_steps.序列由 LSTM 处理,参数 return_sequences = False,然后由函数 RepeatVector 重新创建编码维度并再次运行
..
我正在尝试通过使用自动编码器进行重建来学习文本序列的潜在表示(多个特征 (3)).由于某些序列比我正在考虑的最大 pad 长度或多个时间步长 (seq_length=15) 短,我不确定重建是否会学会忽略时间步长以计算损失或准确性. 我遵循了this的建议回答来裁剪输出,但我的损失是nan和几个精度. input1 = keras.Input(shape=(seq_length,),nam
..
我有一个运行良好的 seq2seq 模型.我想在这个网络中添加一个嵌入层,但我遇到了错误. 这是我使用预训练词嵌入的架构,效果很好(实际上代码几乎与可用代码相同这里,但我想在模型中包含嵌入层而不是使用预训练的嵌入向量): LATENT_SIZE = 20输入 = 输入(形状=(SEQUENCE_LEN,EMBED_SIZE),名称=“输入")编码 = 双向(LSTM(LATENT_SIZE
..
我在本教程中阅读了 LSTM-autoencoder:https://blog.keras.io/building-autoencoders-in-keras.html,并在下面粘贴相应的keras实现: from keras.layers import Input、LSTM、RepeatVector从 keras.models 导入模型输入 = 输入(形状 =(时间步长,input_dim))
..
目标 尝试在多变量时间序列数据集上运行 LSTM 自动编码器: X_train (200, 23, 178) - X_val (100, 23, 178) - X_test (100, 23, 178) 现状 简单的自动编码器比 LSTM AE 的简单架构获得更好的结果. 我对如何使用 Repeat Vector 包装层有一些疑问,据我所知,它应该简单地重复等于序列长度的
..
我正在尝试使用 LSTM 自动编码器以可变长度的序列作为输入进行序列到序列学习,使用以下代码: inputs = Input(shape=(None, input_dim))masked_input = Masking(mask_value=0.0, input_shape=(None,input_dim))(inputs)编码 = LSTM(latent_dim)(masked_input)解
..
更新 1: 我所指的代码正是书中的代码,你可以找到它这里. 唯一的问题是我不想在解码器部分使用 embed_size.这就是为什么我认为我根本不需要嵌入层,因为如果我放置嵌入层,我需要在解码器部分有 embed_size(如果我错了,请纠正我). 总的来说,我试图在不使用嵌入层的情况下采用相同的代码,因为我需要在解码器部分有 vocab_size. 我认为评论中提供的建议可
..
TLDR: 自编码器欠拟合时间序列重建,仅预测平均值. 问题设置: 这是我尝试使用序列到序列自动编码器的总结.此图片取自本文:https://arxiv.org/pdf/1607.00148.pdf 编码器: 标准 LSTM 层.输入序列在最终隐藏状态中进行编码. 解码器: LSTM Cell(我认为!).从最后一个元素x[N]开始,一次重构一个元素. 对于长度
..