标签:公开课 machine-learning 梯度下降 代价函数 线性回归
单变量线性回归:只含有一个特征/输入变量 x
hθ=θ0+θ1x
目标便是选择出可以使得建模误差的平方和能够最小的模型参数,使得代价函数
J(θ0,θ1)=12m∑1m(hθ(x(i))?y(i))2
- 开始:随机选择一个参数的组合(θ0,θ1,…,θn)
一直改变(θ0,θ1,…,θn)来减小代价函数
J(θ0,θ1)
直到到一个 局部最小值(local minimum)
因为我们并没有尝试完所有的参数组合,所以不能确定我们得到的局部最小值是否便是 全局最小值(global minimum)
选择不同的初始参数组合,可能会找到不同的局部最小值(如下图)。
批量梯度下降(batch gradient descent):下降的每一步都使用所有的训练样本。
要同时更新
公式 | 含义 |
---|---|
1.该点的切线斜率(slope):决定下降方向 | |
2.学习率(learning rate):决定了下降方向向下迈出的步子有多大。 |
2.学习率(learning rate)
因为随着下降过程,越来越接近局部最小值(此处斜率为0),斜率(梯度)逐渐减小,所以无需减小
把梯度下降法用于对线性回归求代价函数的最小值:
j=0时:
j=1时:
得到此线性函数
Stanford公开课机器学习---2.单变量线性回归(Linear Regression with One Variable)
标签:公开课 machine-learning 梯度下降 代价函数 线性回归
原文地址:http://blog.csdn.net/muzilanlan/article/details/45918367