标签:like com dfa ops vlm dib 数值 pos irf
Spark中定义的损失函数及梯度,在看源代码之前,先回想一下机器学习中定义了哪些损失函数,毕竟梯度求解是为优化求解损失函数服务的。
监督学习问题是在如果空间F中选取模型f作为决策函数。对于给定的输入X,由f(X)给出对应的输出Y,这个输出的预測值f(X)与真实值Y可能一致也可能不一致,用一个损失函数(lossfunction)或代价函数(cost function)来度量预測错误的程度。损失函数是f(X)和Y的非负实值函数,记作L(Y, f(X)).
统计学习中经常使用的损失函数有下面几种:
(1) 0-1损失函数(0-1 loss function):
(2) 平方损失函数(quadraticloss function)
(3) 绝对损失函数(absolute lossfunction)
(4) 对数损失函数(logarithmicloss function) 或对数似然损失函数(log-likelihood loss function)
(5)间隔损失函数(hinge loss)
在不考虑过拟合的情况下。损失函数越小,模型就越好。
Spark中定义梯度和损失函数求解的类包含一个Gradient基类及其三个实现类:
梯度计算的抽象类,定义了计算梯度值和损失函数值的compute函数:
def compute(data: Vector, label: Double, weights: Vector): (Vector, Double) = { val gradient = Vectors.zeros(weights.size) val loss = compute(data, label, weights, gradient) (gradient, loss) }
后面的梯度计算类都继承子Gradient类并实现compute函数。
实现了最小二乘法进行线性回归的梯度计算方法。
其对compute函数进行的覆写override def compute(data: Vector, label: Double, weights: Vector): (Vector, Double) = { val diff = dot(data, weights) - label val loss = diff * diff / 2.0 val gradient = data.copy scal(diff, gradient)//常数乘以向量 更新后的gradient即为梯度 gradient=(y - lable)* x (gradient, loss) }
使用场景:
1、 參数预计的方法是最小化误差的平方和,其他预计方法不适合用此梯度算子。
2、 Spark实现的是线性回归的梯度计算。非线性回归的梯度计算不适合使用此算子。
实现了最大化分类间距的hinge loss进行參数预计的梯度下降方法,对compute函数进行的覆写:
class HingeGradient extends Gradient { override def compute(data: Vector, label: Double, weights: Vector): (Vector, Double) = { val dotProduct = dot(data, weights) // Our loss function with {0, 1} labels is max(0, 1 - (2y - 1) (f_w(x))) // Therefore the gradient is -(2y - 1)*x val labelScaled = 2 * label - 1.0 if (1.0 > labelScaled * dotProduct) { val gradient = data.copy scal(-labelScaled, gradient) (gradient, 1.0 - labelScaled * dotProduct) } else { (Vectors.sparse(weights.size, Array.empty, Array.empty), 0.0) } }
使用场景:
适用于利用最大化分类间隔思想来构建分类器,典型的使用如SVM。
使用对数似然损失函数对Logistic分类/回归进行參数预计的梯度下降方法。实现的代码比較长,在此就不贴了,在内部分了2分类和多分类两种情况进行计算。
spark.mllib源代码阅读-优化算法1-Gradient
标签:like com dfa ops vlm dib 数值 pos irf
原文地址:http://www.cnblogs.com/claireyuancy/p/7380602.html