码迷,mamicode.com
首页 > 其他好文 > 详细

Lecture 2: Learning to Answer Yes/no

时间:2018-04-21 16:19:12      阅读:169      评论:0      收藏:0      [点我收藏+]

标签:完美   line   学习   感知器   存在   cep   class   权重   比较   

Roadmap

技术分享图片

1.感知器假设集

假设空间 \(H\) 到底是什么样子?
技术分享图片

\(H\)中的一个\(h\)\(h\)\(\mathbf{W}\) 和 阈值决定(阈值可以作为\(w_0\)

举个具体的栗子:
技术分享图片

2.感知器学习算法(Perceptron Learning Algorithm, PLA)

如何选择 \(g\) ?
\(H\) = all possible perceptrons, \(g\) = ? \(\approx f\) => 直接找到与 \(f\) 相近的 \(g\) 很困难

idea:随机从一个 \(g_0\) 出发,每一轮(\(t\))找到一个犯错的点,逐步修正\(g_t\)
具体算法:(用权重向量 \(\mathbf{W_0}\) 表示 \(g_0\)
技术分享图片

修正错误 \(\mathbf{W_{t+1}} = \mathbf{W_t} + y_nx_n\) ( (\(x_n, y_n\)) 是犯错误的点,\(\mathbf{W}\) 是分类线的法向量)
技术分享图片

3.PLA的保证(可收敛)

假设数据线性可分,PLA何时停止更新?
\(\mathbf{W_f}\) 是理想状态下的模型
\(\mathbf{W_f W_t}\) 越大,两个向量越接近
技术分享图片

如果每次只随机寻找犯错误的点,\(\mathbf{W_t}\)的更新会很慢,要在犯错的点中找到 \(||x_n||^2\)最大的点
技术分享图片

PLA更新多少次会停下?T的上界是多少?
T <= 1/ \({constant^2}\) \({ constant^2 }\) = \({R^2}\) / \({\rho^2}\)
技术分享图片
技术分享图片

4.线性不可分的数据

如果数据线性不可分呢?
上述的保证假设数据是线性可分的,但是不一定,另外, \({\rho}\)是由\(\mathbf{W_f}\) 得出,\(\mathbf{W_f}\) 未知。

数据中可能存在少量杂讯(noise),我们尝试找一条犯错最小的线呢?
技术分享图片

找到最完美的线,NP-hard问题。尝试找到一条差不多的线
Pocket 算法
每次找到一条新的线和当前pocket中的线进行比较,选择犯错更少的那条放入pokect中。
迭代足够多次后,停下。
技术分享图片
PS:pocket比PLA要慢,pokect需要存储每次选择的线,并且每次需要检查出哪一条线更好。

Summary

技术分享图片

Lecture 2: Learning to Answer Yes/no

标签:完美   line   学习   感知器   存在   cep   class   权重   比较   

原文地址:https://www.cnblogs.com/forlenia/p/8870039.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!