码迷,mamicode.com
首页 > 其他好文 > 详细

神经网络与深度学习相关笔记

时间:2017-09-20 21:57:18      阅读:131      评论:0      收藏:0      [点我收藏+]

标签:消失   style   增加   激活   解释   mil   max   相关   二次   

说明:

本文是关于http://neuralnetworksanddeeplearning.com/的相关笔记

 

问题一:神经元在错误的值上饱和导致学习速率的下降

解决:

1.输出层:

因使用二次代价函数时,学习在神经元犯了明显错误时却比学习快接近真实值时慢,

可以使用交叉熵代价函数

使得在神经元犯明显错误时学习得更快

注:

输出层:具有交叉熵代价的S型(sigmoid)输出层或具有对数似然代价的柔性最大值(softmax)输出层

后者更加适用于那些需要将输出激活值解释为概率的场景

2.隐藏层:

改进的权重初始化

 

问题二:过拟合

解决:

1.L1或L2规范化/权重衰减

在代价函数上增加一个规范化项

2.弃权dropout

3.人为扩展训练数据

 

问题三:梯度消失

网络越深问题越严重

解决:

1.激励函数的选择

 

神经网络与深度学习相关笔记

标签:消失   style   增加   激活   解释   mil   max   相关   二次   

原文地址:http://www.cnblogs.com/cherrychenlee/p/6800138.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!