人工智能A7论坛 >> Tensorflow和深度学习笔记_论坛版 >> 9.其他高级神经网络模型 >> 9.1 GAN

9.1.2 GAN原理介绍

    说到GAN第一篇要看的paper当然是Ian Goodfellow大牛的Generative Adversarial Networks,这篇paper算是这个领域的开山之作。

      GAN的基本原理其实不难,这里以生成图片为例进行说明。假设我们有两个网络,GGenerator)和DDiscriminator)。正如它的名字所暗示的那样,它们的功能分别是:

 

1)  G是一个生成图片的网络,它接收一个随机的噪声z,通过这个噪声生成图片,记做G(z)

 

2)  D是一个判别网络,判别一张图片是不是“真实的”。它的输入参数是xx代表一张图片,输出Dx)代表x为真实图片的概率,如果为1,就代表100%是真实的图片,而输出为0,就代表不可能是真实的图片。

 

    在训练过程中,生成网络G的目标就是尽量生成真实的图片去欺骗判别网络D。而D的目标就是尽量把G生成的图片和真实的图片分别开来。这样,GD构成了一个动态的“博弈过程”。

     最后博弈的结果是什么?在最理想的状态下,G可以生成足以“以假乱真”的图片G(z)。对于D来说,它难以判定G生成的图片究竟是不是真实的,因此D(G(z)) = 0.5

     这样我们的目的就达成了:我们得到了一个生成式的模型G,它可以用来生成图片。

以上只是大致说了一下GAN的核心原理,如何用数学语言描述呢?这里直接摘录论文里的公式:

简单分析一下这个公式:

 

     整个式子由两项构成。x表示真实图片,z表示输入G网络的噪声,而G(z)表示G网络生成的图片。

     D(x)表示D网络判断真实图片是否真实的概率(因为x就是真实的,所以对于D来说,这个值越接近1越好)。而D(G(z))D网络判断G生成的图片的是否真实的概率。

 

      G的目的:上面提到过,D(G(z))D网络判断G生成的图片是否真实的概率,G应该希望自己生成的图片“越接近真实越好”。也就是说,G希望D(G(z))尽可能得大,这时V(D, G)会变小。因此我们看到式子的最前面的记号是min_G

 

     D的目的:D的能力越强,D(x)应该越大,D(G(x))应该越小。这时V(D,G)会变大。因此式子对于D来说是求最大(max_D)

 

下面这幅图片很好地描述了这个过程:

那么如何用随机梯度下降法训练DG?论文中也给出了算法:

这里红框圈出的部分是我们要额外注意的。第一步我们训练DD是希望V(G, D)越大越好,所以是加上梯度(ascending)。第二步训练G时,V(G, D)越小越好,所以是减去梯度(descending)。整个训练过程交替进行。

 

参考资料:

https://github.com/AYLIEN/gan-intro

http://blog.aylien.com/introduction-generative-adversarial-networks-code-tensorflow/

http://www.leiphone.com/news/201701/yZvIqK8VbxoYejLl.html?viewType=weixin

 

GAN的更多paper和代码

https://github.com/zhangqianhui/AdversarialNetsPapers