标签:inline param mat inf 优化方法 move min pytho display
https://www.cnblogs.com/kai-nutshell/p/12968454.html
https://www.cnblogs.com/kai-nutshell/p/12968484.html
https://www.cnblogs.com/kai-nutshell/p/12968508.html
https://www.cnblogs.com/kai-nutshell/p/12968548.html
https://zhuanlan.zhihu.com/p/26007545
最优判别器为:
这个结果从直观上很容易理解,就是看一个样本\(x\)来自真实分布和生成分布的可能性的相对比例。如果\(P_{r}(x)=0\)且\(P_{g}(x)\neq{0}\),最优判别器就应该非常自信地给出概率0;如果\(P_{r}(x)=P_{g}(x)\),说明该样本是真是假的可能性刚好一半一半,此时最优判别器也应该给出概率0.5。
判别器最优时,GAN的损失函数由:
变为
已知KL散度以及JS散度:
判别器模型前向传播过程中最后需要加上sigmoid函数,结合nn.BCELoss()得到损失函数。
判别器最后一层去掉sigmoid
生成器和判别器中的loss不取对数,损失函数如下
作者为此还铺垫了一个距离概念:Earth-Mover (EM) distance / Wasserstein-1
每次更新判别器的参数,将其绝对值截断到不超过一个固定常数c(因为去除sigmoid后依照上面的损失函数进行更新,有可能造成生成器以及判别器的输出为无穷大,只要差值有限即可)
for p in disc_net.parameters():
p.data.clamp_(opt.clamp_lower, opt.clamp_upper)
不用基于动量的优化方法(momentum Adam)
GAN1-对抗神经网络梳理(GAN,WGAN,WGAN-GP)
标签:inline param mat inf 优化方法 move min pytho display
原文地址:https://www.cnblogs.com/tensorzhang/p/14942718.html