码迷,mamicode.com
首页 > 其他好文 > 详细

tf.nn.dropout()介绍

时间:2018-10-06 21:35:57      阅读:635      评论:0      收藏:0      [点我收藏+]

标签:元素   图片   函数   run   seed   int   shape   noi   第一个   

1.Dropout原理简述:

Dropout就是在不同的训练过程中随机扔掉一部分神经元。也就是让某个神经元的激活值以一定的概率p,让其停止工作,这次训练过程中不更新权值,也不参加神经网络的计算。但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它可能又得工作了。示意图如下:

技术分享图片
技术分享图片

但在测试及验证中:每个神经元都要参加运算,但其输出要乘以概率p。

2、tf.nn.dropout(x,keep_prob,noise_shape=None,seed=None,name=None)函数说明

上面的方法中常用的是前面两个参数:

第一个参数x:指输入

第二个参数keep_prob:设置神经元被选中的概率,在初始化时keep_prob是一个占位符,keep_prob = tf.placeholder(tf.float32) 。tensorflow在run时设置keep_prob具体的值,例如keep_prob: 0.5

第三个参数noise_shape:一个1维的int32张量,代表了随机产生"保留/丢弃"标志的shape

seed :整形变量,随机数种子

name :名字,没什么实际用处。

总结:dropout()函数就是使tensor中某些元素变为0,其它没变0的元素变为原来的1/keep_prob大小。

tf.nn.dropout()介绍

标签:元素   图片   函数   run   seed   int   shape   noi   第一个   

原文地址:https://www.cnblogs.com/zhangxian123/p/9748373.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!