一、ELM是什么 为解决前馈神经网络中出现的问题,黄广斌教授等提出了极限学习机(ELM) 算法。ELM 算法是在 SLFNs 算法基础上发展的,当 ELM 算法的激活函数无限可微,ELM 的隐藏层输出矩阵 H 可以不受迭代训练的影响,保持不变。选取合适的输入权重𝜔𝑖和隐含层的阈值𝑏𝑖,ELM ...
分类:
其他好文 时间:
2021-03-05 13:17:07
阅读次数:
0
what?: 极限学习机(extreme learning machine)ELM是一种简单易用、有效的单隐层前馈神经网络SLFNs学习算法。2004年由南洋理工大学黄广斌副教授提出。传统的神经网络学习算法(如BP算法)需要人为设置大量的网络训练参数,并且很容易产生局部最优解。极限学习机只需要设置网 ...
分类:
其他好文 时间:
2017-11-16 11:38:03
阅读次数:
134
极限学习机(Extreme Learning Machine) ELM,是由黄广斌提出来的求解神经网络算法。ELM最大的特点是对于传统的神经网络,尤其是单隐层前馈神经网络(SLFNs),ELM比传统的学习算法速度更快。 ELM是一种新型的快速学习算法,对于单隐层神经网络,ELM 可以随机初始化输入权 ...
分类:
其他好文 时间:
2017-09-15 14:42:36
阅读次数:
328
极限学习机的概念 ELM是一种新型的快速学习算法,对于单隐层神经网络,ELM可以随机初始化输入权重和偏置并得到相应的输出权重。 对于一个单隐层神经网络,假设有N个任意的样本,其中, 。对于一个有个隐层节点的单隐层神经网络可以表示为 其中,为激活函数,为输入权重, 为输出权重,是第个隐层单元的偏置。 ...
分类:
编程语言 时间:
2017-05-29 23:25:09
阅读次数:
281
原文地址:http://blog.csdn.net/google19890102/article/details/18222103 极限学习机(Extreme Learning Machine) ELM,是由黄广斌提出来的求解神经网络算法。ELM最大的特点是对于传统的神经网络,尤其是单隐层前馈神经网 ...
分类:
系统相关 时间:
2016-08-06 12:49:28
阅读次数:
288
本质:训练前只需设置网络隐层节点和激励函数,训练过程中随机产生网络的输入权值向量和隐层节点偏置,引入矩阵广义逆的思想解析得到网络的输出权值向量,训练过程快速简单,参数选择容易且具有良好的全局搜索能力。 优化点: (1)设置网络隐层节点个数:目前都是经验公式,没有确定的 (2)选择激励函数;目前大多数 ...
分类:
其他好文 时间:
2016-08-05 21:08:57
阅读次数:
150
极限学习机的理论在传统的神经网络训练中,我们通常的做法是要通过梯度下降算法来不断的调整隐层与输出层,输出层与隐层之间的权值矩阵,以及偏置b。但是ELM算法指出,其实隐层的权值矩阵W和偏置b其实是没有必要调整的,在学习算法开始时,任意随机给定W和b的值,利用其计算出H(隐层节点的输出),并令其保持不变,需要确定的参数就只有β\beta了。这是一个比较重要的理论基础。单隐层前向神经网络(SLFN)结构设...
分类:
其他好文 时间:
2016-05-12 20:54:22
阅读次数:
282
最近研究上了这个一个东西--极限学习机。 在很多问题中,我大多会碰到两个问题,一个是分类,另一个就是回归。简单来说,分类是给一串数打个标签,回归是把一串数变为一个数。 在这里我们需要处理的数据一般维度都比较高,在处理这两类问题时最简单的方法就是加权。使那些对最终结果影响大的维度的数据的权设大点,影响...
分类:
系统相关 时间:
2015-06-19 13:23:49
阅读次数:
815
本文是”Local Receptive Fields Based Extreme Learning Machine”的学习总结.文章主要包含两部分内容, 极速学习机(也有人译作极限学习机或极端学习机, Extreme Learning Machine, ELM)和局部感受野(Local Receptive Fields, LRF)....
分类:
其他好文 时间:
2015-06-04 19:25:52
阅读次数:
230
在上一篇《DeepLearning 的挑战: Extreme Learning Machine(超限学习机)?》 中介绍了一些ELM与DL 的一些比较,这篇主要介绍ELM的原理。
首先,ELM的核心就是将复杂的迭代过程转变为隐层参数随机产生。
其次,ELM 是一个神经网络,有输入层、隐藏层,输出层。
最后,ELM 的多分类效果优于SVM。
对于训练样本集{xi,ti} i=1-N,...
分类:
其他好文 时间:
2014-11-25 12:48:37
阅读次数:
226