码迷,mamicode.com
首页 > 其他好文 > 详细

决策树如何防止过拟合

时间:2019-08-06 14:12:33      阅读:802      评论:0      收藏:0      [点我收藏+]

标签:ppi   假设   节点   top   使用   树的高度   指标   公式   计算   

决策树在长成的过程中极易容易出现过拟合的情况,导致泛化能力低。主要有两种手段可以用于防止过拟合。

提前停止

Early Stopping,在完全长成以前停止,以防止过拟合。主要有以下3种方式:

  1. 限制树的高度,可以利用交叉验证选择
  2. 利用分类指标,如果下一次切分没有降低误差,则停止切分
  3. 限制树的节点个数,比如某个节点小于100个样本,停止对该节点切分

后剪枝

提前停止的不足

“提前停止”是一个不错的策略,但是在实际的执行中会越到一些麻烦。比如「其中的第2点,如果下一次切分没有降低误差,则停止切分。」一看貌似很有道理,但是很容易举出反例:

对一个XOR的数据集生成决策树:
技术图片?

下面如果使用x[1]切分:
技术图片?

又或者用x[2]切分:
技术图片?

发现,无论选择哪一个维度进行切分都不会使得训练误差降低了。所以根据Early Stopping,仅仅长成只有一个节点的stump。但是实际上:
技术图片?

继续切下去,能学成一颗具有良好区分度的决策树。所以「提前停止」的第2种情况既有利也有弊:
技术图片?

剪枝

我们通过一颗决策树的叶子结点个数来定义这棵树有多复杂。
技术图片?

但是树太简单也不好,训练误差太大,欠拟合。所以,训练出一颗好的决策树就是在树的训练误差与复杂程度之间做权衡。
技术图片?

写成数学公式,可以表示为:
技术图片?
技术图片?

剪枝算法

举例说明

有一颗已经长成的树:
技术图片?

从底部开始考虑,第一个要检查的切分点是Term:
技术图片?

假设惩罚性lambda是0.3:

  • 对于未剪枝的T,计算它的训练误差为0.25,叶子结点总数为6.所以总的cost为0.43
  • 对于剪去Term的Tsamller,计算它的训练误差为0.26,叶子结点总数为5.所以总的cost为0.41
  • 因为剪去后的树的损失更小。所以决定剪枝。
  • 接着对于所有的切分节点做上述相同的动作。

算法

技术图片?

决策树如何防止过拟合

标签:ppi   假设   节点   top   使用   树的高度   指标   公式   计算   

原文地址:https://www.cnblogs.com/shayue/p/jue-ce-shu-fang-zhi-guo-ni-he.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!