autoencoder相关内容
看看这个奇怪的加载/保存模型情况.我保存了变分自编码器模型及其编码器和解码器: autoencoder.save("autoencoder_save", overwrite=True)编码器.save("encoder_save", overwrite=True)decoder.save("decoder_save", overwrite=T) 之后我从磁盘加载了所有内容: autoenco
..
有没有更简单的方法来设置数据加载器,因为输入和目标数据在自动编码器的情况下是相同的,并且在训练期间加载数据?DataLoader 总是需要两个输入. 目前我这样定义我的数据加载器: X_train = rnd.random((300,100))X_val = rnd.random((75,100))train = data_utils.TensorDataset(torch.from_nu
..
我正在构建一个基本的 seq2seq 自动编码器,但我不确定我是否做对了. model = Sequential()# 编码器model.add(LSTM(32, activation='relu', input_shape =(timesteps, n_features ), return_sequences=True))model.add(LSTM(16, activation='relu'
..
我正在尝试在 Keras 中构建文本 LSTM 自动编码器.我想使用嵌入层,但我不确定如何实现.代码如下所示. inputs = Input(shape=(timesteps, input_dim))embedding_layer = Embedding(numfeats + 1,EMBEDDING_DIM,权重 = [data_gen.get_embedding_matrix()],输入长度=
..
我试图执行自动编码器以进行异常检测.我使用 H2O R 包使用 h2o.anomaly 函数为样本数据生成重建 MSE.但是,我也尝试根据以下文档链接中的 MSE 公式自己手动计算它:http://docs.h2o.ai/h2o/latest-stable/h2o-docs/performance-and-prediction.html#mse-mean-squared-error 我用来构
..
我是 tensorflow 的初学者.我在帮助下制作了简单的自动编码器.我想将最终的 decoded 张量转换为 numpy 数组.我尝试使用 .eval() 但我无法使用它.如何将张量转换为 numpy? 我的输入图片大小为 512*512*1,数据类型为原始图片格式. 代码 #input图像尺寸 = 512隐藏 = 256input_image = np.fromfile('PA
..
自动编码器网络和全卷积网络之间的主要区别是什么?请帮我理解这两种网络架构的区别? 解决方案 自编码器至少有一个隐藏的全连接层,它“通常被称为代码、潜在变量或潜在表示"维基百科.实际上,自动编码器根本不必是卷积网络 - 维基百科只声明它们是供稿-转发非循环网络. 另一方面,全卷积网络没有任何全连接层.请参阅维基百科和Cicek 等人的这篇论文. 了解更多细节(该论文对网络进行了很好的可
..
我正在尝试改编 keras 网站上的 2d 卷积自动编码器示例:https://blog.keras.io/building-autoencoders-in-keras.html 对于我自己使用一维输入的情况: from keras.layers import Input, Dense, Conv1D, MaxPooling1D, UpSampling1D从 keras.models 导入
..
在下面的代码中,创建、保存了三个图像,卷积自动编码器尝试将它们编码为低维表示. %reset -f将 torch.utils.data 导入为 data_utils进口警告warnings.filterwarnings('忽略')将 numpy 导入为 np导入 matplotlib.pyplot 作为 plt将熊猫导入为 pd从 matplotlib 导入 pyplot 作为 plt从 skl
..
我有两种不同类型的图像(相机图像及其对应的草图).网络的目标是找到两个图像之间的相似性. 网络由单个编码器和单个解码器组成.单个编码器-解码器背后的动机是在它们之间共享权重. input_img = Input(shape=(img_width,img_height, channels))定义编码器(input_img):# 照片编码器代码pe = Conv2D(96, kernel_si
..
所以我正在尝试构建一个基于 LSTM 的自动编码器,我想将其用于时间序列数据.这些被分成不同长度的序列.因此,模型的输入具有 [None, None, n_features] 形状,其中第一个 None 代表样本数,第二个代表序列的 time_steps.序列由 LSTM 处理,参数 return_sequences = False,然后由函数 RepeatVector 重新创建编码维度并再次运行
..
我正在尝试为非 MNIST、非 Imagenet 数据构建自动编码器.使用 https://blog.keras.io/building-autoencoders-in-keras.html 作为我的基础.但是,我收到以下错误. **Exception: 生成器的输出应该是一个元组 (x, y, sample_weight) 或 (x, y).发现:[[[[ 0.86666673 0.86666
..
我目前正在使用 Keras(一种自动编码器)开发 CNN 模型.这种类型的输入是 (47,47,3) 形状,即具有 3 (RGB) 层的 47x47 图像. 我过去曾与一些 CNN 合作过,但这次我的输入维度是质数(47 像素).我认为这会导致我的实现出现问题,特别是在我的模型中使用 MaxPooling2D 和 UpSampling2D 时.我注意到在最大池化然后向上采样时会丢失一些维度.
..
我正在查看这个工作变分自动编码器. 主类 class VAE(nn.Module):def __init__(self):super(VAE, self).__init__()self.fc1 = nn.Linear(784, 400)self.fc21 = nn.Linear(400, 20)self.fc22 = nn.Linear(400, 20)self.fc3 = nn.Line
..
我正在使用 Keras 框架,我想实现一个与纪元相关的损失函数(即每个纪元的损失函数都不相同) 你会怎么做?您能否添加一个示例,例如基于 keras VAE 教程? 感谢您的帮助 解决方案 这可以通过重新编译网络来完成.权重被保存,不会因重新编译而改变.所以本质上是这样的: for epoch in range(nb_epoch):loss_function = loss_f
..
我刚刚为自己实现了 AdaDelta(http://arxiv.org/abs/1212.5701)深度神经网络库.该论文说带有 AdaDelta 的 SGD 对超参数不敏感,并且它总是收敛到好的地方.(至少 AdaDelta-SGD 的输出重建损失可以与经过良好调整的 Momentum 方法相媲美) 当我在降噪 AutoEncoder 中使用 AdaDelta-SGD 作为学习方法时,它确
..
我在带有 TensorBoard 回调的 ML 项目中使用 keras.我有一个图像自动编码器,我想可视化它在重建一些图像方面的进展.所以我将 TensorBoard 类细分为: 类监视器(TensorBoard):def on_train_begin(自我,日志=无):超级().on_train_begin(日志)def on_epoch_begin(自我,纪元,日志=无):# 1. 获取重建
..
我已经训练了以下自动编码器模型: input_img = Input(shape=(1, 32, 32))x = Convolution2D(16, 3, 3, activation='relu', border_mode='same')(input_img)x = MaxPooling2D((2, 2), border_mode='same')(x)x = Convolution2D(8, 3
..
我正在尝试学习图像自动编码,但我无法使用输入和输出图像来训练模型 例如:输入图像文件夹:“.../图片/输入" 输出图像文件夹:“.../图片/输出" #从data_dir_input获取输入图片ds_input = tf.keras.preprocessing.image_dataset_from_directory(数据目录输入,种子=123,image_size=(img_heig
..
我正在使用 Tensorflow 使用自动编码器进行无监督特征学习.我为 Amazon csv 数据集编写了以下代码,当我运行它时,每次迭代的成本都不会降低.你能帮我找到代码中的错误吗? from __future__ 导入师,print_function,absolute_import将张量流导入为 tf将 numpy 导入为 np导入 matplotlib.pyplot 作为 plt将熊猫导
..