keras-layer相关内容

Python Keras:图层输出与输入完全相同

我正在使用Keras构建网络.在此过程中,我需要一个接受LSTM输入的层,什么也不做,只是输出与输入完全相同.即,如果LSTM的每个输入记录都像[[A_t1,A_t2,A_t3,A_t4,A_t5,A_t6]],那么我正在寻找一层: model.add(SomeIdentityLayer(x)) SomeIdentityLayer(x)将[[A_t1, A_t2, A_t3, A_t4, ..
发布时间:2021-02-14 20:43:28 其他开发

我如何使用keras创建3d输入/3d输出卷积模型?

我有一个我无法解决的问题. 我想将具有完全连接的MLP的CNN模型实现到我的具有2589个蛋白质的蛋白质数据库中.每种蛋白质具有1287行和69列作为输入,以及1287行和8列作为输出.实际上有1287x1的输出,但是我对类标签使用了一种热编码,以便在模型中使用交叉熵损失. 我也想要 如果我们考虑作为图像,我有一个3d矩阵**输入的X_train =(2589,1287,69)* ..
发布时间:2021-02-14 20:42:52 其他开发

Keras顺序模型的多个嵌入层

我正在使用Keras(tensorflow后端),想知道如何在Keras顺序模型中添加多个嵌入层. 更具体地说,我的数据集中有几列具有分类值,并且我考虑过使用单热编码,但是确定分类项的数量在数百种之内,导致列的设置过于庞大且过于稀疏.在寻找解决方案时,我发现Keras的Embedding层似乎非常优雅地解决了该问题.但是,大多数示例(和Keras文档)都说明了一个具有一个Embedding层 ..
发布时间:2021-02-14 20:38:59 Python

如何将Bert嵌入提供给LSTM

我正在研究用于文本分类问题的Bert + MLP模型.本质上,我试图用基本的LSTM模型代替MLP模型. 是否可以创建带有嵌入的LSTM?还是最好创建一个具有嵌入式层的LSTM? 更具体地说,我很难创建嵌入式矩阵,因此可以使用Bert嵌入来创建嵌入层. def get_bert_embeddings(dataset='gap_corrected_train', ..
发布时间:2021-02-14 20:33:35 其他开发

从预训练的Keras模型中删除图层可提供与原始模型相同的输出

在一些特征提取实验中,我注意到'model.pop()'功能无法按预期工作.对于像vgg16这样的预训练模型,在使用'model.pop()'之后,model.summary()显示该层已被删除(预期有4096个特征),但是在通过新模型传递图像时,结果相同数量(1000个)作为原始模型.不管删除了多少层(包括一个完全空的模型),它都会生成相同的输出.寻找有关可能出问题的指南. #Passin ..
发布时间:2021-02-14 20:33:16 其他开发

Keras向后传播?

谁能告诉我在Keras中反向传播是如何进行的?我读到它在Torch中非常容易,而在Caffe中则非常复杂,但是我找不到与Keras一起做的任何事情.我正在Keras(非常初学者)中实现自己的图层,并且想知道如何进行向后传播. 提前谢谢 解决方案 您根本就没有. (最新修改:创建自定义训练循环时除外,仅用于高级用途) Keras自动进行反向传播.除了使用fit方法之一训练模型之外 ..
发布时间:2021-02-14 20:32:57 Python

冻结的Keras模型中失落层是否仍处于活动状态(即,trainable = False)?

我有两个训练有素的模型(model_A和model_B),并且两个模型都有辍学层.我冻结了model_A和model_B并将它们与新的密集层合并以获得model_AB(但是我还没有删除model_A和model_B的退出层). model_AB的权重将是不可训练的,除了增加的致密层. 现在我的问题是:当我训练model_AB时,model_A和model_B中的辍学层是否处于活动状态(即神经 ..
发布时间:2021-02-14 20:29:14 AI人工智能

如何在keras中实现Conv1DTranspose?

我知道在keras中有Conv2DTranspose可以在Image中使用.我们需要在NLP中使用它,因此需要一维反卷积. 我们如何在keras中实现Conv1DTranspose? 解决方案 使用keras后端使输入张量适合2D转置卷积.不要总是使用移调操作,因为它会占用大量时间. import keras.backend as K from keras.layers imp ..
发布时间:2021-02-14 20:24:31 其他开发

MaxPooling2D后具有padding ='same'的图像形状-在卷积自动编码器中逐层计算形状

很简单,我的问题是当我在Keras代码中使用 padding ='same'时,图像尺寸与maxpool层后输入的图像尺寸保持不变。我正在浏览Keras博客:在Keras中构建自动编码器。我正在构建卷积自动编码器。自动编码器代码如下: input_layer = Input(shape =(28,28,1)) x = Conv2D(16,(3,3),激活='relu',padding =' ..
发布时间:2020-10-19 22:31:22 其他开发

Keras嵌入层蒙版。为什么input_dim需要| vocalbulary | + 2?

在Keras文档中进行嵌入 https:// keras.io/layers/embeddings/ ,对于 mask_zero 的解释是 mask_zero:输入值0是否为应屏蔽的特殊“填充”值。这在使用可能需要可变长度输入的循环图层时很有用。如果为True,则模型中的所有后续层都需要支持屏蔽,否则将引发异常。结果,如果mask_zero设置为True,则词汇表中不能使用索引0(input ..
发布时间:2020-10-19 22:20:59 Python

如何使用TimeDistributed层来预测动态长度序列? PYTHON 3

因此,我正在尝试构建基于LSTM的自动编码器,我希望将其用于时间序列数据.这些被拆分成不同长度的序列.因此,模型的输入具有[None,None,n_features]形状,其中第一个None代表样本数量,第二个None代表序列的time_steps.该序列由LSTM处理,其参数return_sequences = False,然后通过RepeatVector函数重新创建编码维,并再次运行LSTM. ..
发布时间:2020-09-14 06:14:51 其他开发

如何将每个纪元中的张量值保持在一层中并将其传递给张量流中的下一个纪元

我有一个一般性问题. 我正在开发新的层以合并到自动编码器中.更具体地说,该层类似于换句话说,我希望能够将epoch 1层的输出保存在一个变量中,然后在epoch 2中,再次使用相同的矩阵. 因此出现了一个问题,因为在第一个时期该矩阵的值是多少,因为它还没有该层的输出.我们可以使用权重矩阵的相同形状初始化一个数组,但是将其值设置为0. previous_mat_values = t ..
发布时间:2020-05-17 19:21:33 Python