码迷,mamicode.com
首页 > 其他好文 > 详细

AAE对抗自编码器/GAN与VAE的区别

时间:2020-06-16 21:55:44      阅读:218      评论:0      收藏:0      [点我收藏+]

标签:自动   loading   ace   有用   code   uid   填充   png   空间   

译自:https://hjweide.github.io/adversarial-autoencoders

1.自编码器AE作为生成模型

我们已经简要提到过,编码器输出的属性使我们能够将输入数据转换为有用的表示形式。在使用变分自动编码器的情况下,解码器已受过训练,可以从类似于我们选择的先验样本的样本中重建输入。因此,我们可以从此先验分布中采样数据点,并将其馈送到解码器中,以在原始数据空间中重建逼真的外观数据点。

不幸的是,变分自动编码器通常会在先验分布的空间中留下一些区域,这些区域不会映射到数据中的实际样本。对抗性自动编码器旨在通过鼓励编码器的输出完全填充先验分布的空间来改善此情况,从而使解码器能够从先验采样的任何数据点生成逼真的样本。对抗性自动编码器通过使用两个新组件,即鉴别器和生成器,来代替使用变分推理。接下来讨论这些。

2.训练更新过程

技术图片

下面这张图片似乎更加清晰:

技术图片

 

图片来自:https://towardsdatascience.com/a-wizards-guide-to-adversarial-autoencoders-part-2-exploring-latent-space-with-adversarial-2d53a6f8a4f9

上面链接中比较清楚地讲解了AAE两阶段的训练过程:

 

 

 

 

https://hjweide.github.io/adversarial-autoencoders

AAE对抗自编码器/GAN与VAE的区别

标签:自动   loading   ace   有用   code   uid   填充   png   空间   

原文地址:https://www.cnblogs.com/BlueBlueSea/p/13149398.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!