码迷,mamicode.com
首页 > Web开发 > 详细

神经网络的学习 Neural Networks learing

时间:2014-11-14 21:11:02      阅读:253      评论:0      收藏:0      [点我收藏+]

标签:http   io   ar   os   sp   div   on   bs   ad   

1.一些基本符号

bubuko.com,布布扣

2.COST函数

bubuko.com,布布扣

 

 

================Backpropagation Algorithm=============

1.要计算的东西
bubuko.com,布布扣
2.向前传递向量图,但为了计算上图的偏导,要用到后向传递算法
bubuko.com,布布扣
3.后向传递算法
bubuko.com,布布扣
bubuko.com,布布扣
4.小题目
bubuko.com,布布扣

==============Backpropagation Intuition==============

1.前向计算与后向计算很类似
bubuko.com,布布扣
2.仅考虑一个例子,COST函数化简
bubuko.com,布布扣
3.倒着算theta
bubuko.com,布布扣
 

=======Implementation Note: Unrolling Parameters======= 

1.参数的展开
bubuko.com,布布扣
2.学习算法
bubuko.com,布布扣

============Gradient Checking====================

1.梯度的数字计算
bubuko.com,布布扣
2.所有的梯度的近似计算
bubuko.com,布布扣
 
bubuko.com,布布扣
 
3.回退计算而不是梯度计算的本质原因
bubuko.com,布布扣
4.实现注意点
bubuko.com,布布扣

============Random Initialization=============

1.zero initial 对神经网络不适合
bubuko.com,布布扣
2.随机对称初始化
bubuko.com,布布扣
 

==========Putting It Together==============

1.隐含层越多,则计算量越大。隐含层节点相同比较好。
bubuko.com,布布扣
 
2.训练神经网络的步骤,其实跟回归很像。关键是用后退算偏导。
 
bubuko.com,布布扣
bubuko.com,布布扣
 
 
 

神经网络的学习 Neural Networks learing

标签:http   io   ar   os   sp   div   on   bs   ad   

原文地址:http://www.cnblogs.com/boqun1991/p/4098010.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!