autoencoder相关内容
我正在使用 卷积神经网络(无监督特征学习来检测特征 + Softmax 回归分类器)进行图像分类.我已经阅读了 Andrew NG 在这方面的所有教程.(http://ufldl.stanford.edu/wiki/index.php/UFLDL_Tutorial). 我开发的网络有一个: 输入层 - 大小 8x8(64 个神经元) 隐藏层 - 大小为 400 个神经元 输出层 -
..
我正在构建一个自动编码器,我的数据中有 NaN 值.如何创建自定义 (MSE) 损失函数,如果在验证数据中遇到 NaN,则不计算损失? 从网上得到一个提示: def nan_mse(y_actual, y_predicted):per_instance = tf.where(tf.is_nan(y_actual),tf.zeros_like(y_actual),tf.square(tf.s
..
我正在关注本教程来训练自动编码器. 培训进行得很顺利.接下来,我有兴趣从隐藏层(编码器和解码器之间)提取特征. 我该怎么做? 解决方案 最简洁、最直接的方法是添加用于创建部分输出的方法——这甚至可以在经过训练的模型上进行后验. from torch import TensorAE类(nn.Module):def __init__(self, **kwargs):...def
..
所以我一直在研究 LSTM Autoencoder 模型.我还创建了这个模型的各种版本. 1. 使用已经训练好的词嵌入创建模型:在这种情况下,我使用已经训练好的手套向量的权重作为特征(文本数据)的权重.这是结构: inputs = Input(shape=(SEQUENCE_LEN, EMBED_SIZE), name="input")编码 = 双向(LSTM(LATENT_SIZE),m
..
我想创建 VAE(变分自编码器).在模型创建过程中它抛出异常.在继承 Model 类时,您应该实现一个 call 方法. 我使用的是 Tensorflow 2.0 def vae():模型 ={}def apply_bn_and_dropout(x):返回 l.Dropout(dropout_rate)(l.BatchNormalization()(x))input_image = l.I
..
我正在尝试实现一个自动编码器,它获得 3 个不同的输入并融合这三个图像.我想获得编码器中一个层的输出,并将它与解码器中的一个层连接起来,但是当我运行它时,我得到了图形断开连接的错误.这是我的代码: def create_model(input_shape):input_1 = keras.layers.Input(input_shape)input_2 = keras.layers.Input(
..
接前:为什么我的模型可以使用 `tf.GradientTape()` 但在使用 `keras.models.Model.fit()` 时失败 我正在复制感知风格转移模型,如下图所示: 我终于在来自 COCO2014 数据集的 1000 张图像上按预期学习了我的模型.但是后来我尝试运行整个数据集的 2 个 epoch,每个 epoch 有 20695 个批次(根据研究论文).它开始学习非
..
嗨,我正在使用 Keras 库在 Python 3.5 中尝试一个简单的自动编码器.我面临的问题是 - ValueError:检查输入时出错:预期 input_40 有 2 个维度,但得到了形状为 (32, 256, 256, 3) 的数组.我的数据集非常小(60 幅 RGB 图像,尺寸为 256*256 和一种要验证的相同类型的图像).我对 Python 有点陌生.请帮忙. 将 matplot
..
我有一个基本的自动编码器结构.我想将其更改为堆叠式自动编码器.据我所知,堆叠式 AE 有两种不同之处: 它由稀疏的香草 AE 层组成 它进行分层训练. 我想知道稀疏性是否是堆叠 AE 的必要条件,或者只是增加普通 AE 结构中隐藏层的数量会使其成为堆叠 AE? 类自动编码器(链):def __init__(self):super().__init__()使用 self.init_s
..
我正在做一个使用向量来表示图像和标题的图像标题任务. 标题向量的长度/尺寸为 128.图像向量的长度/维度为 2048. 我想做的是训练一个自动编码器,以获得一个能够将文本向量转换为图像向量的编码器.以及能够将图像向量转换为文本向量的解码器. 编码器:128 -> 2048. 解码器:2048 -> 128. 我按照本教程来实现一个浅层网络想要. 但是我不知道如
..
我想提取一些选定层的权重并将它们保存为一个名为 encoding_weight.h5 的 Hdf5 文件,然后预测模型以获得输出. 原始模型包含我不需要的所有权重. model = Autoencoder(input_shape=x_train.shape[1:]) #这是原始模型模型摘要()layer_name_list = ['dense2048','batch2048','act20
..
我正在实现一个 Tensorflow Variational Autoencoder,完全从“Python 深度学习"一书中复制代码.直到几天前,代码运行良好,但截至昨天它已停止运行(我没有更改代码). 该代码用于生成模型,该模型可以从 MNIST 数据集中复制图像. 具体的错误信息如下: TypeError: 正在传递函数构建代码之外的操作“图"张量.有可能有图张量通过包含一个
..
我们可以使用以下 YAML 文件(以及 pylearn2/scripts/train.py)在 pylearn2 中训练自动编码器 !obj:pylearn2.train.Train {数据集:&train !obj:pylearn2.datasets.mnist.MNIST {which_set: '火车',开始:0,停止:50000},模型:!obj:pylearn2.models.auto
..
想象一个典型的自动编码器-解码器模型.但是,我需要实现结构化/自定义解码器,而不是使用去卷积和放大来创建/合成类似于模型输入的张量的通用解码器. 在这里,我需要解码器接收它的输入,例如一个 10x2 张量,其中每一行代表 x,y 位置或坐标,并渲染一个固定的预定义大小的图像,其中在输入指定的位置生成了 10 个高斯分布. 另一种方式,我需要创建一个空的固定大小的张量,将 10 个坐标指
..
我按照建议在 Keras 中构建了一个 CNN 1d Autoencoder in this SO question,其中编码器和解码器是分开的.我的目标是在训练自动编码器后重新使用解码器.我的 Autoencoder 的中心层是 Dense 层,因为我想在之后学习它. 我的问题是,如果我编译并拟合整个自动编码器,写成 Decoder()Encoder()(x) 其中 x 是输入,我得到一个
..
我正在为一类分类构建一个图像分类器,其中我使用了自动编码器. 在运行这个模型时,我通过 autoencoder_model.fit 行收到这个错误: ValueError: 检查目标时出错:预期 model_2 具有形状 (None, 252, 252, 1) 但得到形状为 (300, 128, 128, 3) 的数组 num_of_samples = img_data.shape[
..
我正在尝试寻找一个指标来比较类似于这篇博文中所做的多维降低技术pca-vs-autoencoders-for-Dimensionity-reduction... 特别是这部分对比 # pCA 重建pca.recon
..
我正在用 tensorflow 编写一个去噪自动编码器函数(它有点长,所以我不会发布整个代码)并且一切都运行良好,除非我向批处理添加掩蔽噪声 屏蔽噪声只是将特征的随机比例设为 0.所以问题只是将矩阵中的一些值设为 0.(如果我有一个 np.array 用于 exepmle) 所以我明白了,如果它是一个 tf.variable,由于 tf.scatter_update() 如何修改矩阵的
..
我构建了一个自动编码器(1 个编码器 8:5,1 个解码器 5:8),它采用 Pima-Indian-Diabetes 数据集(https://raw.githubusercontent.com/jbrownlee/Datasets/master/pima-indians-diabetes.data.csv)和减少其维度(从 8 到 5).我现在想使用这些简化的特征来使用 mlp 对数据进行分类.
..
我正在尝试构建一个自动编码器神经网络,用于在单列文本列表中查找异常值.我的输入有 138 行,它们看起来像这样: amaze_header_2.pngamaze_header.pngcircle_shape.xmldisableable_ic_edit_24dp.xmlfab_label_background.xmlfab_shadow_black.9.pngfab_shadow_dark.9.
..