标签:特征 背景 重要 反馈 ges ott 特性 height 个数
每一个突触都由其权值作为特征表征,各个神经元之间的连接强度由突触权值来表示。与神经元相连的突触上,连接的输入信号通过权值的加权进入神经元的求和单元。
求和单元用于求取各输入信号的突触加权和,这个操作构成一个线性组合器。
激活函数起非线性映射的作用,并用来限制神经元输出振幅。激活函数也称限制函数,或传输函数。通常一个神经元输出的正常范围在[0, 1]区间或[?1, 1]区间。
此外,神经元模型还包括一个外部偏置,或外部偏置称为阀值,偏置的作用是根据其为正或负,相应的增加或者降低激活函数的网络输入。
(1)阶跃函数
(2)分段线性函数
(4)双曲正切函数:
这类网络将每一层的神经元串联起来,一层的输出是下一层的输入,网络中没有反馈连接
(1)节点分类
节点有输入单元、计算单元和输出单元三类
(2)层级分类
输入层:源节点构成输入层,输入层没有计算,直接将输入信号传递到下一层的计算单元
可见层:输入、输出节点直接与外界相连,可直接受外界环境影响
隐含层:中间层与外界无直接联系,所以称为隐含层
(3)前馈型网络常常可以有多个隐含层,从而构成多层前馈网络,图中是一个n-p-q的三层前馈网络
前馈型网络是一类静态非线性映射,通过简单非线性处理的复合映射可获得复杂的非线性处理能力。但是,从计算的观点看,前馈型网络并非是一种强有力的计算系统,不具备丰富的动力学行为
在反馈型网络中,输入信号决定反馈系统的初始状态,然后系统经过一系列状态转移后,逐渐收敛于平衡状态,这样的平衡状态就是反馈型网络经计算后输出的结果,需要注意的是通常有多个平衡态。因此,稳定性是反馈网络最重要的问题之一。如果能找到网络的李雅普诺夫(Lyapunov)函数,就能保证网络从任意初始状态都能收敛到局部最小点,即求得局域最优解。
(1)网络的输入个数 = 应用问题的输入数
(2)输出层神经元的数目 = 应用问题的输出数目
(3)输出层的传输函数选择至少部分依赖于应用问题的输出描述
对于神经网络具有首要意义的性质是网络能从环境中学习的能力,并通过学习改善其行为。在学习过程中,神经网络的突触权值和偏置(阀值)水平随时间依据某一规定的度量不断修改,理想情况下,神经网络在每一次重复学习过程后对它的环境便有更多的了解。在神经网络的背景中,关于学习的定义如下:
学习是一个过程,通过这个过程神经网络的自由参数在其嵌入的环境机理过程之下得到调节。学习类型由参数改变的方式决定。这个学习过程的定义隐含着如下的事实:神经网络被一个环境所激励;作为这个激励的结果,神经网络的自身参数发生变化;由于神经网络内部的改变而以新的方式响应环境。
(1)有监督学习
有监督学习也称有导师学习,这种学习需要外界存在一个“导师”,它可以根据自身掌握的一些知识为神经网络提供对输入训练样本的期望响应。期望响应一般代表着神经网络的最优输出结果。当输入作用到网络时,神经网络的期望响应和实际响应相比较,产生误差信号,根据误差信号逐步而又反复地调整网络的权值和阀值,从而使网络的实际输出不断地接近于期望输出,最终目的是使神经网络模拟导师,在某种统计意义上,这种模拟是最优的。利用这种学习方式,导师对环境掌握的知识就可以通过训练最大限度地传授给神经网络,当条件成熟时,就可以将导师排除在外,让神经网络完全自主地应对环境。
(2)无监督学习
无监督学习时不存在外部导师,学习系统完全按照环境所提供数据的某些统计规律来调节自身参数或结构,这是一种自组织过程,以表示外部输入的某种固有特性(如聚类,或某种统计上的分布特征)。在无监督学习中,仅仅根据网络的输入调整网络的权值和阀值,它没有目标输出。乍一看这种学习似乎不可行,不知道网络的目的是什么,还能够训练网络吗?实际上,大多数这种类型的算法是要完成某种聚类操作,学会将输入模式分为有限的几种类型。这种功能特别适合于诸如向量量化等应用问题。
(3)增强式学习
增强式学习也称再励学习。在这种学习方式中学习系统建立在一个评价的基础上,评价将从外部环境中接收到的原始增强信号转换成一种启迪增强信号的高质量增强信号。需要注意的是,外部环境对学习系统的输出结果给出的是评价(奖或惩),而不是正确答案,学习系统通过强化那些受到奖励的动作来改善自身性能。增强式学习与有监督学习有类似的地方,只是它不像有监督学习那样为每个输入提供相应的目标输出,而仅仅是给出一个级别(评价),这个级别是对网络在某些输入序列上的性能度量。当前,增强式学习比有监督学习少见,它最适合控制系统应用领域。
(1)误差修正学习-学习规则
学习规则利用神经元的期望输出与实际输出之间的误差进行学习,通过调整突触权值,使误差减小
(2)Hebb学习规则
(3)竞争学习规则
(4)Boltzmann学习规则
标签:特征 背景 重要 反馈 ges ott 特性 height 个数
原文地址:http://www.cnblogs.com/BlueMountain-HaggenDazs/p/6160411.html