keras-layer相关内容
我当前正在尝试重新创建Unet.在需要合并两层输出的"upconvolution"部分,我提到了错误. (TypeError: init ()为参数'axis'获得了多个值) Keras版本:2.0.6 Tensorflow-gpu:1.2.1 代码段: import gzip import os from six.moves import urllib import ten
..
我正在使用Keras构建网络.在此过程中,我需要一个接受LSTM输入的层,什么也不做,只是输出与输入完全相同.即,如果LSTM的每个输入记录都像[[A_t1,A_t2,A_t3,A_t4,A_t5,A_t6]],那么我正在寻找一层: model.add(SomeIdentityLayer(x)) SomeIdentityLayer(x)将[[A_t1, A_t2, A_t3, A_t4,
..
我有一个我无法解决的问题. 我想将具有完全连接的MLP的CNN模型实现到我的具有2589个蛋白质的蛋白质数据库中.每种蛋白质具有1287行和69列作为输入,以及1287行和8列作为输出.实际上有1287x1的输出,但是我对类标签使用了一种热编码,以便在模型中使用交叉熵损失. 我也想要 如果我们考虑作为图像,我有一个3d矩阵**输入的X_train =(2589,1287,69)*
..
我正在使用Keras(tensorflow后端),想知道如何在Keras顺序模型中添加多个嵌入层. 更具体地说,我的数据集中有几列具有分类值,并且我考虑过使用单热编码,但是确定分类项的数量在数百种之内,导致列的设置过于庞大且过于稀疏.在寻找解决方案时,我发现Keras的Embedding层似乎非常优雅地解决了该问题.但是,大多数示例(和Keras文档)都说明了一个具有一个Embedding层
..
我正在研究用于文本分类问题的Bert + MLP模型.本质上,我试图用基本的LSTM模型代替MLP模型. 是否可以创建带有嵌入的LSTM?还是最好创建一个具有嵌入式层的LSTM? 更具体地说,我很难创建嵌入式矩阵,因此可以使用Bert嵌入来创建嵌入层. def get_bert_embeddings(dataset='gap_corrected_train',
..
在一些特征提取实验中,我注意到'model.pop()'功能无法按预期工作.对于像vgg16这样的预训练模型,在使用'model.pop()'之后,model.summary()显示该层已被删除(预期有4096个特征),但是在通过新模型传递图像时,结果相同数量(1000个)作为原始模型.不管删除了多少层(包括一个完全空的模型),它都会生成相同的输出.寻找有关可能出问题的指南. #Passin
..
谁能告诉我在Keras中反向传播是如何进行的?我读到它在Torch中非常容易,而在Caffe中则非常复杂,但是我找不到与Keras一起做的任何事情.我正在Keras(非常初学者)中实现自己的图层,并且想知道如何进行向后传播. 提前谢谢 解决方案 您根本就没有. (最新修改:创建自定义训练循环时除外,仅用于高级用途) Keras自动进行反向传播.除了使用fit方法之一训练模型之外
..
我正在尝试使用在图像上使用某些OpenCV函数的函数.但是我获取的数据是张量,我无法将其转换为图像. def image_func(img): img=cv2.cvtColor(img,cv2.COLOR_BGR2YUV) img=cv2.resize(img,(200,66)) return img model=Sequential() model.add
..
我有两个训练有素的模型(model_A和model_B),并且两个模型都有辍学层.我冻结了model_A和model_B并将它们与新的密集层合并以获得model_AB(但是我还没有删除model_A和model_B的退出层). model_AB的权重将是不可训练的,除了增加的致密层. 现在我的问题是:当我训练model_AB时,model_A和model_B中的辍学层是否处于活动状态(即神经
..
我正在做一些与图像字幕相关的任务,并且已经像这样加载了初始模型的权重 model = InceptionV3(weights='imagenet') 但是我收到这样的错误: AttributeError: module 'tensorflow' has no attribute 'get_default_graph' 我该怎么办?请帮忙. 这是上面代码的完整输出. 1.
..
我知道在keras中有Conv2DTranspose可以在Image中使用.我们需要在NLP中使用它,因此需要一维反卷积. 我们如何在keras中实现Conv1DTranspose? 解决方案 使用keras后端使输入张量适合2D转置卷积.不要总是使用移调操作,因为它会占用大量时间. import keras.backend as K from keras.layers imp
..
很简单,我的问题是当我在Keras代码中使用 padding ='same'时,图像尺寸与maxpool层后输入的图像尺寸保持不变。我正在浏览Keras博客:在Keras中构建自动编码器。我正在构建卷积自动编码器。自动编码器代码如下: input_layer = Input(shape =(28,28,1)) x = Conv2D(16,(3,3),激活='relu',padding ='
..
在Keras文档中进行嵌入 https:// keras.io/layers/embeddings/ ,对于 mask_zero 的解释是 mask_zero:输入值0是否为应屏蔽的特殊“填充”值。这在使用可能需要可变长度输入的循环图层时很有用。如果为True,则模型中的所有后续层都需要支持屏蔽,否则将引发异常。结果,如果mask_zero设置为True,则词汇表中不能使用索引0(input
..
因此,我正在尝试构建基于LSTM的自动编码器,我希望将其用于时间序列数据.这些被拆分成不同长度的序列.因此,模型的输入具有[None,None,n_features]形状,其中第一个None代表样本数量,第二个None代表序列的time_steps.该序列由LSTM处理,其参数return_sequences = False,然后通过RepeatVector函数重新创建编码维,并再次运行LSTM.
..
这是我尝试保存并加载模型后的代码: model.save('path_to_my_model.h5') del model model = tf.keras.models.load_model('path_to_my_model.h5', custom_objects={'Wraparound2D': Wraparound2D}) import tensorflow.keras.b
..
我正在尝试使用来自tensorflow-hub的预训练模型构建CNN + RNN: base_model = hub.KerasLayer('https://tfhub.dev/google/imagenet/resnet_v2_50/feature_vector/4', input_shape=(244, 244, 3) base_model.trainable = False mode
..
我不明白这段代码中发生了什么: def construct_model(use_imagenet=True): # line 1: how do we keep all layers of this model ? model = keras.applications.InceptionV3(include_top=False, input_shape=(IMG_SIZE,
..
我有一个一般性问题. 我正在开发新的层以合并到自动编码器中.更具体地说,该层类似于换句话说,我希望能够将epoch 1层的输出保存在一个变量中,然后在epoch 2中,再次使用相同的矩阵. 因此出现了一个问题,因为在第一个时期该矩阵的值是多少,因为它还没有该层的输出.我们可以使用权重矩阵的相同形状初始化一个数组,但是将其值设置为0. previous_mat_values = t
..
我正在尝试在Keras中创建一个激活函数,该函数可以像这样输入参数beta: from keras import backend as K from keras.utils.generic_utils import get_custom_objects from keras.layers import Activation class Swish(Activation): def
..
我只是从一个相当简单的顺序模型中查看Keras模型的详细信息,在该模型中我有多个LSTM层,一层又一层.令我惊讶的是,尽管与后续LSTM层具有相同的定义,但第一层始终具有更多的参数. 此处的模型定义清楚地表明了这一点: Layer (type) Output Shape Param # ==================
..