码迷,mamicode.com
首页 > 其他好文 > 详细

单个H扩展到多个H时,机器学习的保证

时间:2015-06-28 17:01:45      阅读:124      评论:0      收藏:0      [点我收藏+]

标签:

1.差的数据集的概念BAD D

单个H,在抽出的样本(数据集上),满足

$P(|E_{in}-E_{out}|>\epsilon)\leq 2e^{-2\epsilon^2N}$

考虑以下情况,如果抽出的都是绿球(数据集D),此时$E_{in} =0 $,而实际上和$E_{out}$差别很大,
此时称此数据集为差的数据集
单个H碰到差的数据集时,$|E_{in}-E_{out}|>\epsilon$
碰到差的数据集的概率为
$P(BAD~D~for~H) \leq 2e^{-2\epsilon^2N}$

 
2.面临hypothesis set(有M个H)
技术分享

此时如果有一个H的碰到BAD D,则学习会不靠谱
$P(BAD~D~for~H_1~OR~BAD~D~for~H_2~OR~...BAD~D~for~H_M)\\ \leq P(BAD~D~for~H_1)+P(BAD~D~for~H_2)...+P(BAD~D~for~H_M) \\ \leq 2Me^{-2\epsilon^2N}$

如果M有限,N足够大,可以保证learning可行



单个H扩展到多个H时,机器学习的保证

标签:

原文地址:http://www.cnblogs.com/porco/p/4605621.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!