标签:blank over 一个 注意 提高 open 数据 使用 链接
原文链接:https://www.mlpod.com/mlbase/66.html
当损失函数给定时,基于损失函数的模型训练误差和魔性的测试误差就自然成为学习方法评估的标准。注意,统计学习方法具体采用的损失函数未必是评估时所使用的损失函数。
当假设空间有不同复杂度的模型时,就要面临模型选择问题。我们希望选择一个与假设空间中存在的“真”模型更接近的模型。如果一味追求提高对训练数据的预测能力,复杂度往往会比“真”模型更高,这种现象称为过拟合。下图为模型复杂度与训练误差的关系。
在这里可以更详细关于过拟合的解释:用简单易懂的语言描述「过拟合 overfitting」?
下面介绍两种常用模型选择方法:正则化和交叉验证
标签:blank over 一个 注意 提高 open 数据 使用 链接
原文地址:https://www.cnblogs.com/0xcafe/p/9572065.html