autoencoder相关内容
我了解从自动编码器中提取的功能可以输入到mlp中以进行分类或回归.这是我之前所做的. 但是,如果我有2个自动编码器怎么办?是否可以从2个自动编码器的瓶颈层中提取特征并将其馈入基于这些特征执行分类的mlp中?如果是,那怎么办?我不确定如何串联这两个功能集.我尝试使用numpy.hstack()给出了“无法散列的切片"错误,而使用tf.concat()则给出了错误“模型的输入张量必须是Keras张量
..
我目前正在使用Keras(自动编码器)开发CNN模型.此类型的输入的形状为(47,47,3),即一个具有3个(RGB)层的47x47图像. 我过去曾经使用过某些CNN,但是这次我的输入尺寸是质数(47像素).我认为这会导致我的实现出现问题,特别是在模型中使用MaxPooling2D和UpSampling2D时.我注意到,在最大池化然后向上采样时会丢失某些尺寸. 使用model.summ
..
我按照在这个问题中,编码器和解码器是分开的.我的目标是在训练自动编码器后重新使用解码器.我的自动编码器的中央层是Dense层,因为我想在以后学习. 我的问题是,如果我编译并拟合整个自动编码器(写为Decoder()Encoder()(x),其中x是输入),则在执行该操作时会得到不同的预测 autoencoder.predict(training_set) w.r.t.如果我先用一
..
我正在使用用于表示图像和字幕的矢量进行图像字幕处理. 字幕向量的长度/尺寸为128. 图像矢量的长度/尺寸为2048. 我想做的是训练一个自动编码器,以获得一个能够将文本向量转换为图像向量的编码器.以及能够将图像矢量转换为文本矢量的解码器. 编码器:128-> 2048. 解码器:2048-> 128. 我遵循了本教程,以实现一个浅层网络来完成我的工作想要的.
..
我想构建一个自动编码器,其中编码器中的每一层与解码器中的对应层具有相同的含义.因此,如果对自动编码器进行了完美的训练,则这些层的值应该大致相同. 因此,可以说自动编码器由e1-> e2-> e3-> d2-> d1组成,而e1是输入,d1是输出.普通的自动编码器训练在d1中具有与e1相同的结果,但是我想要附加的约束,即e2和d2相同.因此,我想要一条从d2到e2的附加反向传播路径,并与从d1
..
我正在尝试构建一个Autoencoder神经网络,以在文本的单列列表中查找离群值.我的输入有138行,它们看起来像这样: amaze_header_2.png amaze_header.png circle_shape.xml disableable_ic_edit_24dp.xml fab_label_background.xml fab_shadow_black.9.png fab_sh
..
我建立了一个自动编码器(1个编码器8:5,1个解码器5:8),该编码器采用了Pima-Indian-Diabetes数据集(深层的自动编码器代码如下: # from keras.models import Sequential from keras.layers import Input, Dense from keras.models import Model from sklearn.p
..
看看这种奇怪的加载/保存模型情况.我保存了变分自动编码器模型及其编码器和解码器: autoencoder.save("autoencoder_save", overwrite=True) encoder.save("encoder_save", overwrite=True) decoder.save("decoder_save", overwrite=T) 之后,我从磁盘上加载了所有
..
我正在尝试在Keras中构建文本LSTM自动编码器.我想使用嵌入层,但不确定如何实现.代码看起来像这样. inputs = Input(shape=(timesteps, input_dim)) embedding_layer = Embedding(numfeats + 1, EMBEDDING_DIM,
..
我正在尝试从keras网站改编2d卷积自动编码器示例: https://blog.keras.io/building-autoencoders-in-keras.html 对于我自己使用一维输入的情况: from keras.layers import Input, Dense, Conv1D, MaxPooling1D, UpSampling1D from keras.models
..
我正在尝试为非MNIST,非Imagenet数据构建自动编码器.使用 https://blog.keras.io/building-autoencoders-in-keras. html 作为我的基础.但是,出现以下错误. **Exception: output of generator should be a tuple (x, y, sample_weight) or (x, y). F
..
使用Tensorflow,可以使用tf.summary监视训练期间的数量. 是否可以使用Keras做同样的事情?您能否通过修改 https://github上的代码来包含一个示例. com/fchollet/keras/blob/master/examples/variational_autoencoder.py 并监控KL丢失(已定义提前谢谢! 解决方案 实际上,一种解决方法是在编
..
我已经训练了以下自动编码器模型: input_img = Input(shape=(1, 32, 32)) x = Convolution2D(16, 3, 3, activation='relu', border_mode='same')(input_img) x = MaxPooling2D((2, 2), border_mode='same')(x) x = Convolution2
..
我正在使用Keras框架,我想实现一个与历时有关的损失函数(即,每个时期的损失函数都不相同) 您将如何做?您能否添加示例,例如基于 keras VAE教程? 谢谢您的帮助 解决方案 这可以通过重新编译网络来完成.保存的权重不会因重新编译而改变.所以本质上是这样的: for epoch in range(nb_epoch): loss_function = los
..
我正在尝试使用LSTM自动编码器通过以下代码将可变长度的序列作为输入来进行序列到序列的学习: inputs = Input(shape=(None, input_dim)) masked_input = Masking(mask_value=0.0, input_shape=(None,input_dim))(inputs) encoded = LSTM(latent_dim)(masked
..
我试图在Keras中创建一个自定义的密集层,以将权重绑定到自动编码器中.我试过在卷积层中执行此操作的示例此处,但似乎有些这些步骤不适用于Dense层(同样,代码来自两年多以前). 通过绑定权重,我希望解码层使用编码层的转置权重矩阵. 本文(第5页)也采用了这种方法.以下是文章的相关引用: 在这里,我们将编码和解码激活函数都选择为S型函数,并且仅考虑 约束权重情况,其中W'= W T (
..
我正在尝试根据Andrew Ng的讲义来实现稀疏自动编码器,如此处. 它要求通过引入惩罚项(K-L散度)将稀疏性约束应用于自动编码器层.我试着按照此处提供的说明实施此操作细微的变化. 这是由SparseActivityRegularizer类实现的K-L散度和稀疏惩罚项,如下所示. def kl_divergence(p, p_hat): return (p * K.log(p / p_ha
..
我有一个自动编码器,我想从中保存模型,特别是编码器部分(或权重,不确定我到底需要什么)的模型,然后将其加载到CNN中. 我的目标是使用自动编码器学习要分类的项目的功能,然后使用这些权重启动CNN. 我尝试仅加载权重,但是由于两个网络的大小不同,它们将无法加载.我虽然只是导入整个网络都可以,但是一个是顺序的,另一个是起作用的. 自动编码器 #load in data using i
..
我有一个CNN 1d自动编码器,该编码器具有密集的中央层.我想训练这种自动编码器并保存其模型.我还想保留解码器部分,以实现此目标:将一些中心特征(独立计算)提供给经过训练并加载的解码器,以通过解码器查看这些独立计算的特征的图像. ## ENCODER encoder_input = Input(batch_shape=(None,501,1)) x = Conv1D(256,3, acti
..
我有一个运行良好的seq2seq模型.我想在该网络中添加一个嵌入层,但遇到错误. 这是我使用预训练词嵌入的体系结构,效果很好(实际上,代码与可用的代码几乎相同LATENT_SIZE = 20 inputs = Input(shape=(SEQUENCE_LEN, EMBED_SIZE), name="input") encoded = Bidirectional(LSTM(LATENT_SI
..