码迷,mamicode.com
首页 > Web开发 > 详细

Extracting and composing robust features with denosing autoencoders 论文

时间:2017-05-12 23:13:04      阅读:294      评论:0      收藏:0      [点我收藏+]

标签:ide   ges   const   网络   back   solution   border   fine   str   

这是一篇发表于2008年初的论文。

文章主要讲了利用 denosing autoencoder来学习 robust的中间特征。。进上步,说明,利用这个方法,可以初始化神经网络的权值。。这就相当于一种非监督学习的方法来训练神经网络。

 

当我们在用神经网络解决各种识别任务时,如果我们想要网络的性能更好,就需要更深层或更wider的神经网络来建模,Model出更复杂的分布。  网络变深以后,如何训练是一个很重要问题,如果训练不好,深层网络的性能真的不如浅层的神经网络。。

 

在训练深层网络的解决方法的道路上,已有的方法:

1.随机初始化权值, 不过这样的效果很不好,网络很容易 stuck in poor solutions

2. 利用stacking的受限的波尔兹曼机预训练网络,然后再fine-tune with UP-down。

3. 使用stacking的 自动编码器初始化网络权值,然后再进行fine-tune with gradient descent.

 

方法3中的基本的autoencoder的图是这样的:

技术分享

 

 

现在的问题是:我们能不能改进一下它呢??让它学习到的中间特征更具有代表性?(即可以学习到对输入不变的中间特征)。

 

下图为文中提出的降噪编码器。。它的主要思想为:给定一个输入 X,首先进行一定的destroy,得到corrupted的 -X,然后利用它学习到中间特征来reconstruct 输入。

                               改进的 denosing autoencoder

技术分享

 

然后,我们就可以利用它逐层来训练网络的初始权值了。

具体过程

1.训练第一层的权值:给定输入X,加噪得到-X, 然后利用这个autoencoder得到了第一层的权值;

2.训练第二层的权值:  固定第一层的权值,然后给定输入X得到了第一层的输出Y,然后把这个Y当作为降噪编码器的原始的输入,然后在Y的基础上加噪,得到了-Y,然后利用autoencoder得到了第二层的初始权值;

3.训练第三层的权值:固定前两层的权值,然后给定输入X,得到了第二层的输出Z,然后把这个Z当作为降噪编码器的原始的输入,在Z的基本加噪,………………,得到了第三层的初始权值;

等等……

这变样,把整个网络的初始权值训练完毕了。

有一个注意的地方就是:我们在训练后面几层的权值时,我们的输入X是不加噪声的,我们只是把前一层的输出作为降噪编码器的原始输入,在它的基础上加上噪声的;这个别错了;

 

文中给出了从不同的角度来说明了降噪编码器。

包括:什么流形啊、什么信息论、生成模型等等相关的东西,我看了一遍,也没有怎么看明白,需要很深的数学知识、统计知识啊,所以没有深入去看了;

 

文中通过试验,证明了它的有效性;

 

另外,文中的参考文献很有价值的;

 

参考:Extracting and composing robust features with denosing autoencoders 论文;

       Extracting and composing robust features with denosing autoencoders 的对应的PPT

Extracting and composing robust features with denosing autoencoders 论文

标签:ide   ges   const   网络   back   solution   border   fine   str   

原文地址:http://www.cnblogs.com/yinheyi/p/6847456.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!