generative-adversarial-network相关内容
我正在使用pytorch-1.5执行一些gan测试。我的代码是非常简单的GAN代码,正好适合sin(X)函数: import torch import torch.nn as nn import numpy as np import matplotlib.pyplot as plt # Hyper Parameters BATCH_SIZE = 64 LR_G = 0.0001 LR_D
..
我正在尝试使用 tensorflow 版本 2 实现 StyleGAN,但我不知道如何进行均衡学习率.我尝试用这种方式缩放渐变: 但它不能正常工作. 请帮忙. 解决方案 您可以只创建自定义图层. class DenseEQ(Dense):"""标准密集层,但包括学习率均衡在运行时按照 Karras 等人的说法.2017 年.继承 Dense 层并覆盖调用方法."""def _
..
我想更改保存的模型的输入和输出签名,我使用 tf.Module 对象来构建主模型的操作. 类生成器(tf.Module):def __init__(....):super(Generator, self).__init__(name=name)...使用 self.name_scope:...@tf.Module.with_name_scopedef __call__(self, input):
..
我正在研究 OCR 系统.我在识别 ROI 内的文本时面临的一个挑战是 抖动 或 运动效果 镜头或文本由于角度位置而无法聚焦.请考虑以下演示示例 如果您注意到文本(例如标记为红色),在这种情况下,OCR 系统无法正确识别文本.但是,这种情况也可能在没有角度拍摄的情况下出现,其中图像太模糊以至于 OCR 系统无法识别或部分识别文本.有时它们模糊或有时非常低分辨率或像素化.例如 我们尝试过
..
因此,我一直在使用以下代码: https://www.tensorflow.org/tutorials/generative/dcgan ,并且已经对其功能进行了很好的构思.但是,我不太了解 BUFFER_SIZE 变量的用途.我怀疑可以将其用于创建大小为 BUFFER_SIZE 的数据库的子集,然后从该子集中获取批处理,但是我看不到要点,也找不到人解释它. 因此,如果有人可以向我解释 BU
..
这是我第一次与GAN合作,而且我面临着一个问题,那就是鉴别器一再超越表现器.我正在尝试从此文章,我正在查看此稍有不同的实现方式帮助我. 我已经阅读了很多有关GAN的工作方式的论文,并且还遵循了一些教程来更好地理解它们.此外,我已经阅读了有关如何克服主要不稳定因素的文章,但找不到解决这种现象的方法. 在我的环境中,我正在使用 PyTorch 和 BCELoss().遵循 DCGAN Py
..
我训练了GAN来再现CIFAR10图像.最初,我注意到由生成器生成的一批中的所有图像看起来总是相同的,如下图所示: "> https://machinelearningmastery.com/how-to-develop-a-generative-adversarial-network-for-a-cifar-10-small-object-photographs-from-scratch/),
..
我正在研究基于GAN的问题,但是在看不到渐变的情况下我遇到了这个问题.我希望有人能在这里帮助我.我有两个主要的代码段,它们也许可以帮助您确定问题.第一段代码将数据加载到变量中. training_images = [] target_images = [] for image in images: a_img = cv2.resize(cv2.imread( os.path.joi
..
我正在阅读人们对DCGAN的实现,尤其是在Tensorflow中的此. 在该实现中,作者绘制了鉴别器和生成器的损耗,如下所示(图像来自 鉴别器和发生器的损失似乎都没有遵循任何规律.与一般的神经网络不同,后者的损失随着训练迭代次数的增加而减少.训练GAN时如何解释损失? 解决方案 不幸的是,就像您对GAN所说的那样,损失是非常不直观的.主要是由于生成器和鉴别器相互竞争这一事实,因此,一
..
我正在为我的神经网络设计一个自定义层,但是我从代码中得到了一个错误. 我想按照论文中的描述进行关注: SAGAN .而原始tf代码 class AttentionLayer(Layer): def __init__(self, **kwargs): super(AttentionLayer, self).__init__(**kwargs) def build(self, i
..
这是我的鉴别器架构: def build_discriminator(img_shape,embedding_shape): model1 = Sequential() model1.add(Conv2D(32, kernel_size=5, strides=2, input_shape=img_shape, padding="same")) model1.add
..