lstm相关内容

在 Keras 中,当我创建一个带有 N 个“单元"的有状态的“LSTM"层时,我究竟要配置什么?

普通 Dense 层中的第一个参数也是 units,并且是该层中神经元/节点的数量.然而,标准的 LSTM 单元如下所示: (这是“理解 LSTM 网络") 在 Keras 中,当我创建一个像这样的 LSTM 对象 LSTM(units=N, ...) 时,我实际上创建了这些 LSTM 单元的 N 吗?或者它是 LSTM 单元内“神经网络"层的大小,即公式中的 W ?还是别的什么? ..
发布时间:2021-12-09 22:23:24 其他开发

Keras LSTM 输入维度设置

我曾尝试使用 keras 训练 LSTM 模型,但我认为我这里出了点问题. 我有一个错误 ValueError: 检查输入时出错:预期 lstm_17_input 有3 维,但得到了形状为 (10000, 0, 20) 的数组 虽然我的代码看起来像 model = Sequential()model.add(LSTM(256, activation="relu", dropou ..
发布时间:2021-12-09 22:21:19 Python

将 CNN 的输出传递给 BILSTM

我正在做一个项目,我必须将 CNN 的输出传递给双向 LSTM.我创建了如下模型,但它抛出“不兼容"错误.请让我知道我哪里出错了以及如何解决这个问题 模型 = 顺序()model.add(Conv2D(filters = 16, kernel_size = 3,input_shape = (32,32,1)))model.add(BatchNormalization())model.add(Ma ..
发布时间:2021-12-09 22:11:33 Python

具有缺失值的多元 LSTM

我正在使用 LSTM 处理时间序列预测问题.输入包含几个特征,所以我使用的是多元 LSTM.问题是有一些缺失值,例如: 功能 1 功能 2 ... 功能 n1 2 4 南2 5 8 103 8 8 54 南 7 75 6 南 12 不是插入缺失值,这会在结果中引入偏差,因为有时在同一特征上有很多连续的时间戳具有缺失值,我想知道是否有办法让LSTM学习使用缺失值,例如,使用遮罩层或类似的东西? ..
发布时间:2021-12-09 22:08:04 其他开发

TensorFlow:记住下一批的 LSTM 状态(有状态 LSTM)

给定一个经过训练的 LSTM 模型,我想对单个时间步长进行推理,即下面示例中的 seq_length = 1.在每个时间步之后,需要记住下一个“批次"的内部 LSTM(记忆和隐藏)状态.对于推理的最开始,给定输入计算内部 LSTM 状态 init_c, init_h.然后将它们存储在传递给 LSTM 的 LSTMStateTuple 对象中.在训练期间,每个时间步都会更新此状态.然而,对于推理,我 ..
发布时间:2021-12-09 22:04:12 Python

预期 ndim=3,发现 ndim=2

我是 Keras 的新手,我正在尝试实现一个序列到序列的 LSTM.特别是,我有一个具有 9 个特征的数据集,我想预测 5 个连续值. 我把训练集和测试集分开,它们的形状分别是: X 火车 (59010, 9)X 测试 (25291, 9)Y火车 (59010, 5)Y 测试 (25291, 5) LSTM 目前非常简单: model = Sequential()model.add(L ..
发布时间:2021-12-09 22:01:14 Python

Keras:我应该如何为 RNN 准备输入数据?

我在为 Keras 上的 RNN 准备输入数据时遇到问题. 目前我的训练数据维度是:(6752, 600, 13) 6752:训练数据的数量 600:时间步数 13:特征向量的大小(向量在浮点数中) X_train 和 Y_train 都在这个维度上. 我想准备将这些数据输入 Keras 上的 SimpleRNN.假设我们正在经历时间步长,从步骤 #0 到步骤 #599 ..

如何在将单词呈现为嵌入的同时在整个词汇预测上拥有 LSTM Autoencoder 模型

所以我一直在研究 LSTM Autoencoder 模型.我还创建了这个模型的各种版本. 1. 使用已经训练好的词嵌入创建模型:在这种情况下,我使用已经训练好的手套向量的权重作为特征(文本数据)的权重.这是结构: inputs = Input(shape=(SEQUENCE_LEN, EMBED_SIZE), name="input")编码 = 双向(LSTM(LATENT_SIZE),m ..
发布时间:2021-11-30 19:50:25 其他开发

带有嵌入层的 Keras LSTM 自动编码器

我正在尝试在 Keras 中构建文本 LSTM 自动编码器.我想使用嵌入层,但我不确定如何实现.代码如下所示. inputs = Input(shape=(timesteps, input_dim))embedding_layer = Embedding(numfeats + 1,EMBEDDING_DIM,权重 = [data_gen.get_embedding_matrix()],输入长度= ..
发布时间:2021-11-30 19:46:37 其他开发

如何使用 TimeDistributed 层预测动态长度的序列?蟒蛇3

所以我正在尝试构建一个基于 LSTM 的自动编码器,我想将其用于时间序列数据.这些被分成不同长度的序列.因此,模型的输入具有 [None, None, n_features] 形状,其中第一个 None 代表样本数,第二个代表序列的 time_steps.序列由 LSTM 处理,参数 return_sequences = False,然后由函数 RepeatVector 重新创建编码维度并再次运行 ..
发布时间:2021-11-30 19:45:31 其他开发

如何使用 LSTM 自动编码器在多特征序列中在解码时正确忽略填充或丢失的时间步长

我正在尝试通过使用自动编码器进行重建来学习文本序列的潜在表示(多个特征 (3)).由于某些序列比我正在考虑的最大 pad 长度或多个时间步长 (seq_length=15) 短,我不确定重建是否会学会忽略时间步长以计算损失或准确性. 我遵循了this的建议回答来裁剪输出,但我的损失是nan和几个精度. input1 = keras.Input(shape=(seq_length,),nam ..
发布时间:2021-11-30 19:41:33 其他开发

将嵌入层添加到 lstm 自动编码器时出错

我有一个运行良好的 seq2seq 模型.我想在这个网络中添加一个嵌入层,但我遇到了错误. 这是我使用预训练词嵌入的架构,效果很好(实际上代码几乎与可用代码相同这里,但我想在模型中包含嵌入层而不是使用预训练的嵌入向量): LATENT_SIZE = 20输入 = 输入(形状=(SEQUENCE_LEN,EMBED_SIZE),名称=“输入")编码 = 双向(LSTM(LATENT_SIZE ..
发布时间:2021-11-30 19:41:06 其他开发

LSTM/GRU 自编码器收敛

目标 尝试在多变量时间序列数据集上运行 LSTM 自动编码器: X_train (200, 23, 178) - X_val (100, 23, 178) - X_test (100, 23, 178) 现状 简单的自动编码器比 LSTM AE 的简单架构获得更好的结果. 我对如何使用 Repeat Vector 包装层有一些疑问,据我所知,它应该简单地重复等于序列长度的 ..

如何在 keras 中重塑文本数据以适合 LSTM 模型

更新 1: 我所指的代码正是书中的代码,你可以找到它这里. 唯一的问题是我不想在解码器部分使用 embed_size.这就是为什么我认为我根本不需要嵌入层,因为如果我放置嵌入层,我需要在解码器部分有 embed_size(如果我错了,请纠正我). 总的来说,我试图在不使用嵌入层的情况下采用相同的代码,因为我需要在解码器部分有 vocab_size. 我认为评论中提供的建议可 ..
发布时间:2021-11-30 19:39:09 Python

LSTM 自编码器问题

TLDR: 自编码器欠拟合时间序列重建,仅预测平均值. 问题设置: 这是我尝试使用序列到序列自动编码器的总结.此图片取自本文:https://arxiv.org/pdf/1607.00148.pdf 编码器: 标准 LSTM 层.输入序列在最终隐藏状态中进行编码. 解码器: LSTM Cell(我认为!).从最后一个元素x[N]开始,一次重构一个元素. 对于长度 ..
发布时间:2021-11-30 19:38:44 Python