论文阅读之 Generative Adversarial Nets

Summary

Goodfellow 的这篇paper发布于2014年,提出了一种新的模型——生成对抗模型。这个模型其实就是训练两个相互对抗的网络,一个是训练一个生成器(Generator),另一个是训练一个判别器(Descriminator)。

这两个网络是相互对抗的,生成器的目的是尽量产生接近真实图片的生成图片,其衡量标准就是判别器,生成器要让判别器无法判断一张图片是来自真实图像的分布还是是由生成器学习到的分布。

用数学语言描述整个博弈过程的话,就是:假设我们的生成模型是G(zθg)G(z|\theta_g),其中zz是一个随机噪声,而GG将这个随机噪声转化为数据类型xx,仍拿图片问题举例,这里GG的输出就是一张图片。DD是一个判别模型,对任何输入xxD(xθd)D(x|\theta_d)的输出是0-1范围内的一个实数,用来判断这个图片是一个真实图片的概率是多大。令prp_rpgp_g分别代表真实图像的分布与生成图像的分布,我们判别模型的目标函数如下:
maxDV(D,G)=Expdata(x)[logD(x)]+Ezpz(z)[log(1D(G(z)))]\max_DV(D,G) = \mathbb{E}_{x∼p_{data}(x)}[logD(x)]+\mathbb{E}_{z∼p_z(z)}[log(1−D(G(z)))]

类似的生成模型的目标是让判别模型无法区分真实图片与生成图片,生成模型的目标函数如下:
minGEzpz(z)[log(1D(G(z)))]\min_G\mathbb{E}_{z∼p_z(z)}[log(1−D(G(z)))]

那么整个的优化目标函数如下:
minGmaxDV(D,G)=Expdata(x)[logD(x)]+Ezpz(z)[log(1D(G(z)))]\min_G\max_DV(D,G) = \mathbb{E}_{x∼p_{data}(x)}[logD(x)]+\mathbb{E}_{z∼p_z(z)}[log(1−D(G(z)))]

这个最大最小化目标函数如何进行优化呢?最直观的处理办法就是分别对DDGG进行交互迭代,固定GG,优化DD,一段时间后,固定DD再优化GG,直到过程收敛。

一个简单的例子如下图所示:假设在训练开始时,真实样本分布、生成样本分布以及判别模型分别是图中的黑线、绿线和蓝线。可以看出,在训练开始时,判别模型是无法很好地区分真实样本和生成样本的。接下来当我们固定生成模型,而优化判别模型时,优化结果如第二幅图所示,可以看出,这个时候判别模型已经可以较好的区分生成数据和真实数据了。第三步是固定判别模型,改进生成模型,试图让判别模型无法区分生成图片与真实图片,在这个过程中,可以看出由模型生成的图片分布与真实图片分布更加接近,这样的迭代不断进行,直到最终收敛,生成分布和真实分布重合。
论文阅读——《Generative Adversarial Nets》

Code

  • Generator
def generator(z):
    G_A1 = tf.nn.relu(tf.matmul(z, G_W1) + G_b1)
    G_A2 = tf.nn.sigmoid(tf.matmul(G_A1, G_W2) + G_b2)
    return G_A2
  • Discriminator
def discriminator(x):
    D_A1 = tf.nn.relu(tf.matmul(x, D_W1) + D_b1)
    D_logit = tf.matmul(D_A1, D_W2) + D_b2
    D_A2 = tf.nn.sigmoid(D_logit)
    return D_A2, D_logit
  • Loss Function

损失函数使用了单侧标签平滑(One-sided label smoothing),没有使用的时候发现在训练过程中出现了nan,上网搜索了一番发现使用单侧标签平滑能够很好的解决这个问题。

G_sample = generator(Z)
D_real, D_real_logit = discriminator(X)
D_fake, D_fake_logit = discriminator(G_sample)

D_loss_real = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
    logits=D_real_logit,
    labels=0.9 * tf.ones_like(D_real_logit)
))

D_loss_fake = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
    logits=D_fake_logit,
    labels=tf.zeros_like(D_fake_logit)
))
D_loss = D_loss_real + D_loss_fake
# 注意此处使用了单侧标签平滑
# 即使用一个目标值1−α为真样本, 并且使用目标值0+β为伪样本
G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
    logits=D_fake_logit,
    labels=0.9 * tf.ones_like(D_fake_logit)
))

完整代码

Reference

到底什么是生成式对抗网络GAN?
【tensorflow学习】最简单的GAN 实现

相关文章: