码迷,mamicode.com
首页 > 其他好文 > 详细

Dropout

时间:2018-10-22 14:44:10      阅读:113      评论:0      收藏:0      [点我收藏+]

标签:学习   输出   原则   关闭   结构   网络   ace   深度学习   部分   

From 《白话深度学习与TensorFlow》

        Dropout 顾名思义是“丢弃”,在一轮训练阶段丢弃一部分网络节点,比如可以在其中的某些层上临时关闭一些节点,让他们既不输入也不输出,这样相当于网络的结构发生了改变。而在下一轮训练过程中再选择性地临时关闭一些节点,原则上都是随机性。这样每一次训练相当于网络的一部分所形成的一个子网络或者子模型。而这种情况同时也在一种程度上降低了VC维的数量,减小过拟合的风险。在最终的分类阶段将所有的节点都置于有效状态,这样就可以把训练中得到的所有子网络并联使用,形成一个由多个VC维较低的部分的分类模型所组成的完整的分类模型。

在TensorFlow中设置训练当中的Dropout比例只要加入以下代码就可以:

keep_pro=tf.placeholder(tf.float32)

h_fc1_drop=tf.nn.dropout(h_fc1,keep_prob)

 

From 《Deep Learning》

 

Dropout

标签:学习   输出   原则   关闭   结构   网络   ace   深度学习   部分   

原文地址:https://www.cnblogs.com/Ann21/p/9829469.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!