码迷,mamicode.com
首页 > 其他好文 > 详细

LambdaMART 之 lambda

时间:2020-03-21 14:52:19      阅读:66      评论:0      收藏:0      [点我收藏+]

标签:original   布布扣   air   实例   交换   label   learning   wap   height   

LambdaMART 之 lambda

概念

      LTR 排序学习主要用于对召回结果的精排,主流使用基于pair(文档对标记)的 LambdaMART 算法,该算法由两部分组成:lambda + MART(GBDT:梯度提升树)。lambda是MART求解过程使用的梯度,其物理含义是一个待排序的文档下一次迭代应该排序的方向(向上或者向下)和强度。
      pair 文档对标记法的思想主要体现在query对应文档的 lambda 梯度计算,文档计算得到的 lambda 值也是 GBDT 训练的 label,依次拟合 lambda 残差得到最优解。       

LambdaMART 训练流程:
1. 计算 deltaNDCG 以及 lambda
2. 以 lambda 作为 label训练一棵 regression tree
3. 在 tree 的每个叶子节点通过预测的 regression lambda值还原得到gamma(最终得分)
4. 预测所有训练集合值(+ learningRate*gamma),重新排序打分(每个query新的base ndcg),回到步骤 1 训练新的树
5. 模型 NDCG 评价指标没有改进、或者达到收敛(迭代轮次、树的棵数)则结束训练


lambda 梯度的意义

    排序问题评价指标一般有NDCG、ERR、MAP、MRR,但是这些指标特点是不平滑、不连续,无法求梯度,因此无法直接用梯度下降法求解。
    lambda 梯度:
    1. 可以进行求导,所有能用梯度下降法的模型都可以使用该梯度。
    2. 重新定义了梯度,赋予排序问题需要的梯度的物理意义;lambda(i)表达了doc(i)上升或者下降的强度:
    * lambda >0,越大:趋于上升的方向,力度也越大(lambda 绝对值表示力度)
    * lambda <0,越小:趋于下降的方向,力度也越大


 

lambda 计算

   step first 先计算 query  的 NDCG:

1. 根据初始 label 排序计算 query 的 dcg:
技术图片 2. 根据理想的 label 排序(从大到小),重新计算 query的 idcg(即排序后的 dcg 值) 3. 计算query初始的 NDCG(original) = dcg/idcg

step second:
1. 计算 doc(i) 的与其他 doc(j) 交换位置的 deltaNDCG:
   deltaNDCG(i,j) = | NDCG(original) - NDCG(swap(i,j))|
2. 计算 lambda(i),涉及的计算公式:

技术图片 : 该计算公式可以理解为所有正向lambda(i,j)与所有负向
lambda(i,j)之和
 
技术图片

   概率公式为逻辑回归函数,ρ可以理解为doci比docj差的概率:

     技术图片

   

   lambda 计算实例: https://blog.csdn.net/u010035907/article/details/70739816

   ps:训练过程中选取最小化平方误差和的特征分裂节点    

LambdaMART 之 lambda

标签:original   布布扣   air   实例   交换   label   learning   wap   height   

原文地址:https://www.cnblogs.com/fqr52/p/11612510.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!