码迷,mamicode.com
首页 > 系统相关 > 详细

machine learning

时间:2015-05-19 22:23:26      阅读:219      评论:0      收藏:0      [点我收藏+]

标签:

1. 梯度下降法

    导数为0, 所以直接沿导数方向。

    learning rate 过小:,过大。

    越靠近极值,梯度下降步长越小。

    用上所有的training数据,叫batch gradient descent.

    计算梯度时要用同一个时刻的值,不能用更新后的值。

    迭代停止条件:

2. feature scaling

   不scaling的话,则等高线会细长,梯度下降法怎需要很多步寻找极值。

   最大最小值scaling,均值scaling,std scaling(分母可为方差,或者数据范围)

   如果本身尺度变化不大的话,则不需要scaling

3. 尺度因子

    极值越来越大或大小不定,原因:alpha太大;

4. 如何选择特征和regression函数

     尽量减少冗余度,可以变换变量的次数。

5. 何时需要feature scaling

    梯度下降时需要,normal equation不需要

6. 方法选择

    normal equation:特征维数大时难以求导。

    维数小:梯度法;

    维度大:normal equation方法。

7. linear cost function和logistic cost function区别

machine learning

标签:

原文地址:http://www.cnblogs.com/mejliu/p/4515451.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!