autoencoder相关内容
我已经建立了一个模型来在 TensorFlow 中训练卷积自编码器.我按照 从 TF 文档中读取数据的说明 来读取我自己的 233 大小的图像x 233 x 3.这是根据这些指令改编的我的 convert_to() 函数: def convert_to(images, name):"""将数据集转换为 tfrecords."""num_examples = images.shape[0]行 =
..
借助 Tensorflow,可以在训练期间使用 tf.summary 监控数量. 是否可以使用 Keras 做同样的事情?您能否通过修改 https://github.com/fchollet/keras/blob/master/examples/variational_autoencoder.py 并监控 KL 损失(定义 在第 53 行) 先谢谢你! 解决方案 实际上,一种
..
我使用的是 Python 3.7.7.和 Tensorflow 2.1.0. 我有一个预训练的 U-Net 网络,我想获得它的编码器和它的解码器. 如下图: 您可以看到卷积编码器-解码器架构.我想得到encoder部分,也就是图片左边出现的层: 和解码器部分: 我从这个函数中得到了 U-Net 模型: def get_unet_uncompiled(img_shap
..
考虑以下代码: x = tf.placeholder(tf.float32, (), name='x')z = x + tf.constant(5.0)y = tf.mul(z, tf.constant(0.5))使用 tf.Session() 作为 sess:打印(sess.run(y,feed_dict={x:30})) 结果图是 x -> z -> y.有时我对从 x 一直计算 y 感兴
..
我正在尝试在 Keras 中创建一个自定义的 Dense 层来绑定自动编码器中的权重.我已经尝试按照在卷积层中执行此操作的示例 here,但它似乎是步骤不适用于 Dense 层(而且,代码来自两年多前). 通过绑定权重,我希望解码层使用编码层的转置权重矩阵.这篇文章(第 5 页)中也采用了这种方法.以下是文章的相关引述: 这里,我们选择编码和解码激活函数都为 sigmoid 函数,只考
..
我正在使用 tf.slim 来实现自动编码器.我与以下架构完全卷积: [conv, 输出 = 1] =>[转换,输出 = 15] =>[转换,输出 = 25] =>=>[conv_transpose,输出 = 25] =>[conv_transpose,输出 = 15] =>[conv_transpose,输出 = 1] 它必须是完全卷积的,我不能进行池化(更大问题的限制).我想使用捆绑重量,
..
我在 PyTorch 中有一个多任务编码器/解码器模型,输入端有一个(可训练的)torch.nn.Embedding 嵌入层. 在一项特定任务中,我想对模型进行自我监督预训练(以重新构建屏蔽输入数据)并将其用于推理(以填补数据空白). 我想对于训练时间,我可以将损失作为输入嵌入和输出嵌入之间的距离来衡量……但是对于推理,我如何反转 Embedding 以重建正确的类别/标记输出对应于?
..
总的来说,我对机器学习有点陌生,我想做一个简单的实验来更熟悉神经网络自动编码器:制作一个非常基本的自动编码器来学习恒等函数. 我使用 Keras 让生活更轻松,所以我首先这样做以确保它有效: # 权重以 [weights, biases] 给出,所以我们给出# 权重的单位矩阵和偏差的零向量权重 = [np.diag(np.ones(84)), np.zeros(84)]模型 = 顺序([密
..
我正在尝试根据 Andrew Ng 的讲义实现稀疏自动编码器,如下所示 here.它要求通过引入惩罚项(K-L 散度)在自动编码器层上应用稀疏约束.我尝试使用 here 提供的方向来实现这一点,经过一些微小的变化.这是由 SparseActivityRegularizer 类实现的 K-L 散度和稀疏惩罚项,如下所示. def kl_divergence(p, p_hat):返回 (p * K.
..
我正在尝试使用自动编码器和 Keras 检测欺诈.我已将以下代码编写为 Notebook: import numpy as np # 线性代数import pandas as pd # 数据处理,CSV 文件 I/O (e.g. pd.read_csv)从 sklearn.preprocessing 导入 StandardScaler从 keras.layers 导入输入,密集从 keras.m
..
在下面的代码中,他们使用自动编码器作为监督聚类或分类,因为它们有数据标签.http://amunategui.github.io/anomaly-detection-h2o/但是,如果我没有标签,我可以使用自动编码器来聚类数据吗?问候 解决方案 深度学习自动编码器始终是无监督学习.您链接到的文章的“监督"部分是为了评估它的表现. 以下示例(取自我的书《Practical Machin
..
我正在尝试使用 PyTorch 实现一个简单的自动编码器.我的数据集由 256 x 256 x 3 图像组成.我已经构建了一个 torch.utils.data.dataloader.DataLoader 对象,该对象将图像存储为张量.当我运行自动编码器时,出现运行时错误: 尺寸不匹配,m1:[76800 x 256],m2:[784 x 128] at/Users/soumith/mini
..
我正在尝试学习 TensorFlow 并研究以下示例:https://github.com/aymericdamien/TensorFlow-Examples/blob/master/notebooks/3_NeuralNetworks/autoencoder.ipynb 然后我在下面的代码中有一些问题: for epoch in range(training_epochs):# 遍历所有
..
我正在尝试通过使用自动编码器进行重建来学习文本序列的潜在表示(多个特征 (3)).由于某些序列比我正在考虑的最大 pad 长度或多个时间步长 (seq_length=15) 短,我不确定重建是否会学会忽略时间步长以计算损失或准确性. 我遵循了this的建议回答来裁剪输出,但我的损失是nan和几个精度. input1 = keras.Input(shape=(seq_length,),nam
..
我有一个自动编码器,我想从中保存模型,特别是编码器部分(或权重,不确定我需要什么),然后将其加载到 CNN 中.我的目标是使用自动编码器来学习我想要分类的项目的特征,然后使用这些权重来启动 CNN. 我试过只加载权重,但它们不会加载,因为两个网络的大小不同.我虽然只导入整个网络可以工作,但一个是顺序的,另一个是功能性的. 自编码器 #load in data using imaged
..
我有一个 CNN 1d 自动编码器,它有一个密集的中心层.我想训练这个自动编码器并保存它的模型.我还想保存解码器部分,目的是:将一些中心特征(独立计算)馈送到训练和加载的解码器中,通过解码器查看这些独立计算的特征的图像是什么. ## 编码器编码器输入 = 输入(batch_shape=(无,501,1))x = Conv1D(256,3, activation='tanh', padding='
..
我有一个运行良好的 seq2seq 模型.我想在这个网络中添加一个嵌入层,但我遇到了错误. 这是我使用预训练词嵌入的架构,效果很好(实际上代码几乎与可用代码相同这里,但我想在模型中包含嵌入层而不是使用预训练的嵌入向量): LATENT_SIZE = 20输入 = 输入(形状=(SEQUENCE_LEN,EMBED_SIZE),名称=“输入")编码 = 双向(LSTM(LATENT_SIZE
..
我正在尝试制作一个变分自动编码器来学习编码 DNA 序列,但遇到了意外错误. 我的数据是一组单热数组. 我遇到的问题是值错误.它告诉我我有一个四维输入,而我的输入显然是三维的 (100, 4008, 4). 事实上,当我打印出 seq 层时,它说它的形状是 (?, 100, 4008, 4). 当我取出一个维度时,它会给我一个二维错误. 任何帮助将不胜感激! 代
..
我在本教程中阅读了 LSTM-autoencoder:https://blog.keras.io/building-autoencoders-in-keras.html,并在下面粘贴相应的keras实现: from keras.layers import Input、LSTM、RepeatVector从 keras.models 导入模型输入 = 输入(形状 =(时间步长,input_dim))
..
我已经编译了一个自动编码器(完整代码如下),在训练后我想将它分成两个独立的模型:编码器(层 e1...编码)和解码器(所有其他层)在其中馈送手动修改已由解码器编码的图像.我已经成功地将编码器创建为一个单独的模型: encoder = Model(input_img, autoencoder.layers[6].output) 但是当我尝试制作解码器时,同样的方法失败了: encoded_in
..