autoencoder相关内容
在下面的代码中,创建,保存了三个图像,并且卷积自动编码器尝试将它们编码为较低维的表示形式. %reset -f import torch.utils.data as data_utils import warnings warnings.filterwarnings('ignore') import numpy as np import matplotlib.pyplot as plt i
..
我正在使用Python 3.7.7.和Tensorflow 2.1.0. 我有一个经过培训的U-Net网络,我想获得其编码器和其解码器. 在下图中: 您可以看到卷积编码器-解码器体系结构.我要获取编码器部分,即出现在图像左侧的层: 解码器部分: 我从此函数获取U-Net模型: def get_unet_uncompiled(img_shape = (200,20
..
我在带有TensorBoard回调的ML项目中使用了keras.我有一个图像自动编码器,我想可视化其在重建某些图像时的进度.因此,我将TensorBoard类归为此类: class Monitor(TensorBoard): def on_train_begin(self, logs=None): super().on_train_begin(logs) de
..
考虑以下代码: x = tf.placeholder(tf.float32, (), name='x') z = x + tf.constant(5.0) y = tf.mul(z, tf.constant(0.5)) with tf.Session() as sess: print(sess.run(y, feed_dict={x: 30})) 结果图为x-> z-> y.有
..
我正在使用tf.slim来实现自动编码器.我完全了解以下架构: [conv, outputs = 1] => [conv, outputs = 15] => [conv, outputs = 25] => => [conv_transpose, outputs = 25] => [conv_transpose, outputs = 15] => [conv_transpose, outpu
..
我正在尝试使用PyTorch实现一个简单的自动编码器.我的数据集包含256 x 256 x 3幅图像.我建立了一个torch.utils.data.dataloader.DataLoader对象,该对象将图像存储为张量.运行自动编码器时,出现运行时错误: 尺寸不匹配,m1:[76800 x 256],m2:[784 x 128] /Users/soumith/minicondabuild3/
..
在下面的代码中,由于它们具有数据标签,因此它们将自动编码器用作监督的聚类或分类. http://amunategui.github.io/anomaly-detection-h2o/ 但是,如果没有标签,可以使用自动编码器对数据进行聚类吗? 问候 解决方案 深度学习自动编码器始终是无监督学习.您链接到本文的“受监督"部分是为了评估其效果. 以下示例(摘自本书第7章,《使用H2O进行实
..
我正在创建一个卷积稀疏自动编码器,我需要将一个充满值(其形状为[samples, N, N, D])的4D矩阵转换为稀疏矩阵. 对于每个样本,我都有D NxN个特征图.我想将每个NxN特征图转换为稀疏矩阵,将最大值映射为1,将所有其他特征映射为0. 我不想在运行时而是在Graph声明期间执行此操作(因为我需要使用生成的稀疏矩阵作为其他图操作的输入),但是我不了解如何获取索引来构建稀疏矩
..
我正在尝试执行自动编码器以进行异常检测.我使用H2O R包使用h2o.anomaly函数为示例数据生成了重建MSE.但是,我也尝试根据下面的文档链接中的MSE公式由我自己手动进行计算: http://docs.h2o.ai/h2o/latest-stable/h2o-docs/performance-and-prediction.html#mse-mean-squared-error 我用来
..
我正在尝试编写一个堆叠式自动编码器.由于这是一个堆叠式自动编码器,我们需要训练第一个自动编码器并将权重传递给第二个自动编码器.因此,在训练过程中,我们需要定义train_data_for_next_layer.在这里我得到了错误: InvalidType: Invalid operation is performed in: LinearFunction (Forward) Expect
..
我正在尝试学习TensorFlow并在以下位置研究示例:然后我在下面的代码中有一些疑问: for epoch in range(training_epochs): # Loop over all batches for i in range(total_batch): batch_xs, batch_ys = mnist.train.next_batch(ba
..
我正在尝试制作变体自动编码器以学习编码DNA序列,但遇到了意外错误. 我的数据是一个热阵列. 我遇到的问题是值错误.告诉我,我的输入显然是三维的(100,4008,4),所以我有一个三维输入. 实际上,当我打印出seq层时,它说它的形状是(?,100,4008,4). 当我取出一个尺寸时,它给我一个二维错误. 任何帮助将不胜感激! 代码是: from ke
..
我正在使用使用Tensorflow的自动编码器进行无监督功能学习.我已经为Amazon csv数据集编写了以下代码,当我运行它时,成本并没有在每次迭代中都在降低.您能帮我找到代码中的错误吗? from __future__ import division, print_function, absolute_import import tensorflow as tf import nump
..
我建立了一个在TensorFlow中训练卷积自动编码器的模型.我遵循了关于从TF文档中读取数据的说明,以读取自己的大小为233的图像x 233 x3.这是我根据这些指令改编的convert_to()函数: def convert_to(images, name): """Converts a dataset to tfrecords.""" num_examples = images
..
此图训练了一个简单的信号身份编码器,并且实际上表明权重正在由优化程序进行演化: import tensorflow as tf import numpy as np initia = tf.random_normal_initializer(0, 1e-3) DEPTH_1 = 16 OUT_DEPTH = 1 I = tf.placeholder(tf.float32, shape=[N
..
目标 我遇到一个奇怪的情况,试图在我的时间序列数据集上创建高效的自动编码器: X_train (200, 23, 178) X_val (100, 23, 178) X_test (100, 23, 178) 现状 在时间序列数据集上,使用简单的自动编码器比使用简单的LSTM AE可获得更好的结果. 我对重复向量包装器层的利用有些担心,据我所知,该层应该重复多次,例如序列长度
..
我正在构建一个基本的seq2seq自动编码器,但是我不确定自己是否做得正确. model = Sequential() # Encoder model.add(LSTM(32, activation='relu', input_shape =(timesteps, n_features ), return_sequences=True)) model.add(LSTM(16,
..
嗨,我正在尝试使用Keras库在Python 3.5中测试一个简单的自动编码器.我面临的问题是-ValueError:检查输入时出错:预期input_40具有2维,但数组的形状为(32,256,256,3).我的数据集非常小(60张RGB图像,尺寸为256 * 256,并且要验证一种相同类型的图像).我对Python有点陌生.请帮忙. import matplotlib.pyplot as
..
续前:我正在复制如下图所示的感知样式转换模型: 我终于对COCO2014数据集中的1000张图像进行了模型学习.但是后来我尝试运行整个数据集的2个时期,每个时期20695个批次(根据研究论文).它开始很快学习,但是经过大约3700个步骤后,它神秘地失败了. (每100批次保存1张生成的图像,最新的保存在左侧) 我对保存的检查点所做的预测显示了相似的结果: 看起来像是在故障点附近的损失,
..
所以我一直在研究LSTM Autoencoder model.我还创建了该模型的各种版本. 1..使用已经受过训练的单词嵌入来创建模型: 在这种情况下,我使用已经训练好的手套矢量的权重作为特征(文本数据)的权重. 这是结构: inputs = Input(shape=(SEQUENCE_LEN, EMBED_SIZE), name="input") encoded = Bidi
..