autoencoder相关内容
我最近阅读了这篇论文,其中介绍了一个称为“预热"(WU) 的过程,这包括将 KL 散度中的损失乘以一个变量,该变量的值取决于 epoch 的数量(它从 0 到 1 线性演化) 我想知道这是不是这样做的好方法: beta = K.variable(value=0.0)def vae_loss(x, x_decoded_mean):# 交叉熵xent_loss = K.mean(objecti
..
目标 尝试在多变量时间序列数据集上运行 LSTM 自动编码器: X_train (200, 23, 178) - X_val (100, 23, 178) - X_test (100, 23, 178) 现状 简单的自动编码器比 LSTM AE 的简单架构获得更好的结果. 我对如何使用 Repeat Vector 包装层有一些疑问,据我所知,它应该简单地重复等于序列长度的
..
我正在尝试为简单的神经网络训练编写代码.目标是定义一个自定义激活函数,而不是让 Keras 为反向传播自动获取它的导数,而是让 Keras 使用我的自定义梯度函数进行自定义激活: 将 numpy 导入为 np将张量流导入为 tf导入数学进口keras从 keras.models 导入模型,顺序从 keras.layers 导入输入、密集、激活从 keras 导入正则化器从 keras 导入后端为
..
我正在尝试遵循 Deep Autoencoder Keras 示例.我遇到了尺寸不匹配异常,但对于我的生活,我不知道为什么.当我只使用一个编码维度时它有效,但当我堆叠它们时无效. 异常:输入0与dense_18层不兼容: 预期形状=(无,128),发现形状=(无,32)* 错误在一行 decoder = Model(input=encoded_input, output=decode
..
我正在玩一个玩具示例来理解 PCA 与 keras 自动编码器 我有以下用于理解 PCA 的代码: 将 numpy 导入为 np导入 matplotlib.pyplot 作为 plt从 mpl_toolkits.mplot3d 导入 Axes3D从sklearn导入分解从 sklearn 导入数据集虹膜 = datasets.load_iris()X = 虹膜数据pca = 分解.PCA(
..
我正在尝试使用 LSTM 自动编码器以可变长度的序列作为输入进行序列到序列学习,使用以下代码: inputs = Input(shape=(None, input_dim))masked_input = Masking(mask_value=0.0, input_shape=(None,input_dim))(inputs)编码 = LSTM(latent_dim)(masked_input)解
..
我已经在 Keras 中实现了一个绑定权重自动编码器并成功地训练了它. 我的目标是仅使用自动编码器的解码器部分作为另一个网络的最后一层,以微调网络和解码器. 事实是,正如您在下面的摘要中所见,解码器没有使用我的绑定权重实现的参数,因此没有什么需要微调的.(decoder.get_weights() 返回 []) 我的问题是:我是否应该更改绑定权重的实现,以便绑定层仍然可以持有权重
..
我只使用 Dense 层编写了一个普通的自动编码器.下面是我的代码: iLayer = Input ((784,))layer1 = Dense(128, activation='relu' ) (iLayer)layer2 = Dense(64, activation='relu') (layer1)layer3 = Dense(28, activation ='relu') (layer2)
..
更新 1: 我所指的代码正是书中的代码,你可以找到它这里. 唯一的问题是我不想在解码器部分使用 embed_size.这就是为什么我认为我根本不需要嵌入层,因为如果我放置嵌入层,我需要在解码器部分有 embed_size(如果我错了,请纠正我). 总的来说,我试图在不使用嵌入层的情况下采用相同的代码,因为我需要在解码器部分有 vocab_size. 我认为评论中提供的建议可
..
我正在尝试为以下对象创建自动编码器: 训练模型 分离编码器和解码器 可视化压缩数据(编码器) 使用任意压缩数据获取输出(解码器) from keras.layers import Input, Dense, Conv2D, MaxPooling2D, UpSampling2D从 keras.models 导入模型从 keras 导入后端为 K从 keras.datasets 导入
..
TLDR: 自编码器欠拟合时间序列重建,仅预测平均值. 问题设置: 这是我尝试使用序列到序列自动编码器的总结.此图片取自本文:https://arxiv.org/pdf/1607.00148.pdf 编码器: 标准 LSTM 层.输入序列在最终隐藏状态中进行编码. 解码器: LSTM Cell(我认为!).从最后一个元素x[N]开始,一次重构一个元素. 对于长度
..
我正在使用卷积神经网络(无监督特征学习来检测特征 + Softmax 回归分类器)进行图像分类.我已经阅读了 Andrew NG 在这方面的所有教程.(http://ufldl.stanford.edu/wiki/index.php/UFLDL_Tutorial). 我开发的网络有一个: 输入层 - 大小为 8x8(64 个神经元) 隐藏层 - 大小为 400 个神经元 输出层 -
..
嗨,我正在为一类分类构建一个图像分类器,其中我在运行这个模型时使用了自动编码器我收到了这个错误(ValueError: Layer conv2d_3 was called with an input that is not a symbol tensor. Received类型:.完整输入:[(128, 128, 3)].层的所有输入都应该是张量.) num_of_samples = img_d
..
此图训练了一个简单的信号标识编码器,实际上表明优化器正在改进权重: 将 tensorflow 导入为 tf将 numpy 导入为 npinitia = tf.random_normal_initializer(0, 1e-3)深度_1 = 16输出深度 = 1I = tf.placeholder(tf.float32, shape=[None,1], name='I') # 输入W = tf.
..
我正在创建一个卷积稀疏自动编码器,我需要将一个充满值的 4D 矩阵(其形状为 [samples, N, N, D])转换为一个稀疏矩阵. 对于每个样本,我有 D NxN 个特征图.我想将每个 NxN 特征映射转换为一个稀疏矩阵,最大值映射为 1,所有其他映射为 0. 我不想在运行时执行此操作,而是在 Graph 声明期间执行此操作(因为我需要使用生成的稀疏矩阵作为其他图形操作的输入),
..
目前我偶然发现了变分自编码器,并尝试使用 keras 使它们在 MNIST 上工作.我在 github 上找到了一个教程. 我的问题涉及以下代码行: # 构建模型vae = 模型(x,x_decoded_mean)# 计算自定义损失xent_loss = original_dim * metrics.binary_crossentropy(x, x_decoded_mean)kl_loss
..
嗨,我正在为一类分类构建一个图像分类器,其中我在运行此模型时使用了自动编码器我通过这一行收到此错误 (autoencoder_model.fit)(ValueError: Error when checks target: expected model_2 to有形状 (None, 252, 252, 1) 但得到形状为 (300, 128, 128, 3) 的数组.) num_of_sampl
..
我一般来说对机器学习还是陌生的,我想做一个简单的实验来更熟悉神经网络自动编码器:制作一个极其基础的自动编码器,可以学习身份函数. 我正在使用Keras来使生活更轻松,所以我首先这样做是为了确保它能工作: #权重以[权重,偏差]给出,因此我们给出#权重的单位矩阵和偏差的零向量权重= [np.diag(np.ones(84)),np.zeros(84)]模型=顺序([密集(84,input_d
..
我正在尝试实现一个自动编码器,该编码器可以获取3个不同的输入并将这三个图像融合在一起.我想获取编码器中一层的输出,并将其与解码器中的一层连接起来,但是当我运行它时,出现图形断开连接错误.这是我的代码: def create_model(input_shape):输入_1 = keras.layers.Input(输入形状)输入_2 = keras.layers.Input(输入形状)input
..
我正在按照本教程来训练自动编码器 培训进行得很好.接下来,我感兴趣的是从隐藏层(在编码器和解码器之间)提取特征. 我应该怎么做? 解决方案 最干净,最直接的方法是添加用于创建部分输出的方法-甚至可以在经过训练的模型上进行后验./p>从火炬导入Tensor的 AE(nn.Module)类:def __init __(self,** kwargs):...def encoding
..