码迷,mamicode.com
首页 > 其他好文 > 详细

ELM 极限学习机与SVM支持向量机

时间:2014-11-25 12:48:37      阅读:226      评论:0      收藏:0      [点我收藏+]

标签:elm   极限学习机   svm   deep learning   深度学习   

在上一篇《DeepLearning 的挑战: Extreme Learning Machine(超限学习机)?》 中介绍了一些ELM与DL 的一些比较,这篇主要介绍ELM的原理。

首先,ELM的核心就是将复杂的迭代过程转变为隐层参数随机产生。

其次,ELM 是一个神经网络,有输入层、隐藏层,输出层。

最后,ELM 的多分类效果优于SVM,而且速度贼快。

 

对于训练样本集{xi,ti}  i=1-N, 共有N各样本,其中每个样本xi 是一个d维列向量,ti是输出标签。

ELM,的输出为:

bubuko.com,布布扣

其中,wj 为连接第j 各隐节点的输入权值;bj 为第j个隐节点的偏差; j 为第j各隐节点到ELM输出节点的权值;g()为第j各隐节点的输出函数;

而, h(xi)=[g(w1,b1,xi),…..,g(wL,bL,xi)]为隐层关于xi的输出向量,h(xi)的作用是将xi由d维空间映射到L维特征空间。

优化:

bubuko.com,布布扣

  其中,   是训练误差,消除过拟合,从而减少测试误差。

  C为惩罚因子。

类似于SVM,用对偶问题求解:

bubuko.com,布布扣

bubuko.com,布布扣

 公式相对于SVM来说,已经很少了。其中,随机化隐层参数a,b,无需迭代求解。

个人觉得,其模拟人脑系统确实更实际,如果人脑像迭代似的,最优化参数,那速度也贼慢。反而,我们用不同g() 隐层函数,如线性函数,sign函数,甚至cos,sin函数等等,这些学习到的特征更多,而且我们如果将这些函数深层网络格式,这样,是不是又能组合出不一样的函数呢?

所以,我觉得,随机化这些参数是有意义的,而且,效果不错,就能证明他有实用空间。

ps:CSDN 的公式编辑贼麻烦!

ELM 极限学习机与SVM支持向量机

标签:elm   极限学习机   svm   deep learning   深度学习   

原文地址:http://blog.csdn.net/hanzihan123/article/details/41478679

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!