码迷,mamicode.com
首页 > 其他好文 > 详细

深度学习(五十四)图片翻译WGAN实验测试

时间:2017-03-05 00:42:42      阅读:1341      评论:0      收藏:0      [点我收藏+]

标签:network   为我   href   最大   article   justify   ima   证明   需要   

图片翻译WGAN实验测试

博客http://blog.csdn.net/hjimce/article/details/51761865

微博黄锦池-hjimce  

WGAN相比于GAN的优点在于:具有更高的稳定性。在原始的WGAN中,作者通过一堆的理论,提出了WGAN,理论证明n多页,不过代码实现就两行:

(1)去掉了判别网络的判别的概念,在原始的GAN中,判别网络的损失函数为最大化交叉熵损失函数:

技术分享

也就是说判别网络的输出是一个0~1的概率值,用于表示图片真伪的概率。

然而在WGANs中,fw的输出不需要是一个概率值,这就是为什么作者不把fw称之为判别器的原因,而是把它称作评价器,因为我们压根没有明确的进行训练图片真伪判别。所以fw中,去掉了最后一层的sigmoid激活函数,采用直接真样本与假样本的fw之差作为损失函数。当然生成网络的损失函数也跟着去掉了log

(2)判别网络fw参数裁剪,把判别网络的参数裁剪到了指定的范围-0.01~0.01之间;

(3)学习方法采用RMS;

具体伪代码如下:

技术分享

为此我们利用文献《Image-to-Image Translation with Conditional Adversarial Networks》的条件对抗网络进行图片生成测试,本文主要实验WGAN和GAN在条件对抗网络中的稳定性实验,下面是原始的GAN在条件对抗网络中的实验结果:

技术分享

技术分享

技术分享

可以看到采用原始的GAN进行训练的时候,生成的图片质量很不稳定,图片清晰度并不是随着迭代的进行,不断的提高。比如第2800次迭代、,生成的图片突然就跑偏了,变得很差,稳定性很差。接着我们看看WGAN的训练结果:

技术分享

技术分享

技术分享

很明显,WGAN生成的过程基本很稳定。



深度学习(五十四)图片翻译WGAN实验测试

标签:network   为我   href   最大   article   justify   ima   证明   需要   

原文地址:http://blog.csdn.net/hjimce/article/details/60346089

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!