标签:data- start wrap 三次 池化层 并且 脉冲 系统 kaa
1. 简述神经网络的基本特征和基本功能
答:基本特征:(A)非线性,人工神经网络处于激活状态或者抑制状态,变现出非线性的特征,可以提高容错性和存储容量(B)非局限性,一个神经网络可以由多个神经网络构成,一个系统不仅取决于单个神经网络特点,还取决于单元之间的相互作用。(C)非常定性,神经网络可以自适应,自组织,自学习,处理信息的有各种变化的同时,系统自身也在变化。(D)非凸性,一个系统的演化方向,在一定条件下取决于摸个特定的额转台函数。非凸性是指这种函数有多个机智,故系统具有多个稳定的平衡状态,导致演化的多样性。
基本功能:(1)联想记忆(2)非线性映射(3)分类和识别(4)知识处理(5)优化计算(6)优化处理(7)模式识别(8)数据压缩
2. 神经网络的模型分为哪几类,试述神经网络的典型结构?
?
3. 感知器神经网络存在的主要缺陷是什么?
答: (1)由于感知器的激活函数采用的是阀值函数,输出矢量只能取0或1,所以只能用它来解决简单的分类问题;
(2)感知器仅能够线性地将输入矢量进行分类。理论上已经证明,只要输人矢量是线性可分的,感知器在有限的时间内总能达到目标矢量;
(3)感知器还有另外一个问题,当输入矢量中有一个数比其他数都大或小得很多时,可能导致较慢的收敛速度。
4.比较前馈型神经网络与反馈型神经网络的异同点。
答:前馈型神经网络只表达输入输出之间的映射关系,实现非线性映射;反馈型神经网络考虑输入输出之间在时间上的延迟,需要用动态方程来描述,反馈型神经网络是一个非线性动力学系统。
(1)前馈型神经网络的学习训练主要采用BP算法,计算过程和收敛速度比较慢;反馈型神经网络的学习主要采用Hebb规则,一般情况下计算的收敛速度很快,并且它与电子电路有明显的对应关系,使得网络易于用硬件实现。
(2)前馈型神经网络学习训练的目的是快速收敛,一般用误差函数来判定其收敛程度;反馈型神经网络的学习目的是快速寻找到稳定点,一般用能量函数来判别是否趋于稳定点。
(3)两者都有局部极小问题。
(4)隐节点的选取缺乏理论支持;
(5)训练时学习新样本有遗忘旧样本趋势。
5.BP算法的基本思想是什么,它存在的不足之处?
答:BP算法(即反向传播法)的基本思想是:学习过程由信号的正向传播与误差的反向传播两个过程组成。
不足之处:局部极小化问题、收敛速度慢、结构选择不一、预测能力和训练能力存在矛盾、样本存在依赖性。
6. 人脑神经元的基本结构与功能。
答:人脑神经元的基本结构包括细胞体和突起两部分.神经元的突起一般包括一条长而分支少的轴突和数条短而呈树枝状分支的树突,轴突以及套在外面的髓鞘叫神经纤维,神经纤维末端的细小分支叫神经末梢,神经末梢分布在全身各处。
人脑神经元的功能:信息整合功能、接受刺激、信息储存功能、传递信息。
7.BP算法的缺陷及改进方案?
答:BP算法的缺陷:(1)易形成局部极小(属贪婪算法,局部最优)而得不到全局最优;(2)BP算法可以使网络权值收敛到一个解,但它并不能保证所求为误差超平面的全局最小解,很可能是一个局部极小解;(3)训练次数多使得学习效率低下,收敛速度慢(需做大量运算)。
改进方案:对于一些复杂的问题,BP算法可能要进行几小时甚至更长的时间的训练。这主要是由于学习速率太小所造成的。可采用变化的学习速率或自适应的学习速率来加以改进。
8.什么称为神经网络过学习?
答:当已知训练样本的数据加到网络输入端时,网络的学习机制一遍又一遍地调整各神经元的权值,使其输出端超过预定的目标,这一过程称为神经网络过学习。
9. 什么称为有监督学习?
答:在监督学习中,我们获得了一个数据集,并且已经知道我们正确的输出应该是什么样子的,这意味着输入和输出之间有一个关系。即监督学习其实是我们对输入样本经过模型训练后有明确的预期输出。
答:如果两个神经元同时兴奋(即同时被激活),则它们之间的突触连接加强。如果用、表示神经元i和j的激活值(输出),表示两个神经元之间的连接权,则Hebb学习规则可以表示为: ,这里表示学习速率。Hebb学习规则是人工神经网络学习的基本规则,几乎所有神经网络的学习规则都可以看作Hebb学习规则的变形。
答:神经网络结构上的特征是处理单元的高度并行性与分布性,这种特征使神经网络在信息处理方面具有信息的分布存储与并行计算而且存储与处理一体化的特点。而这些特点必然给神经网络带来较快的处理速度和较强的容错能力。能力方面的特征是神经网络的自学习、自组织与自性适应性。自适应性是指一个系统能改变自身的性能以适应环境变化的能力,它包含自学习与自组织两层含义。自学习是指当外界环境发生变化时,经过一段时间的训练或感知,神经网络能通过自动调整网络结构参数,使得对于给定输入能产生期望的输出。自组织是指神经系统能在外部刺激下按一定规则调整神经元之间的突触连接,逐渐构建起神经网络。也就是说自组织神经元的学习过程,完全是一种自我学习的过程,不存在外部教师的示教。
12.简述卷积神经网络工作原理?
答:常用的CNN神经网络大致由:卷积层,激活函数池化层和全连接层组成。这里以图像处理为例。第一层卷积层的作用:通过卷积滤波器(filters)对输入的信息做卷积,比如输入的是图像信息,采集图像的特征信息。第二层,激活函数,让卷积层提取的图像特征信息更加明显。第三次,池化层:当经过卷积层之后的数据的处理量是相当巨大的,因此很容易产生过拟合,因此要降低网络的训练参数和模型的拟合度,因此对处理后的数据进行池化处理,常用的池化方法,max-pooling和mean-pooling。最后一层全连接层,对前面采集的特征信息做分类处理。
13.人工神经网络是模拟生物神经网络的产物,除相同点外,它们还存在哪些主要区别?
答:1.单元上的差别 对于生物神经元而言,影响突触传递信息强度的因素很多、很复杂。如突触前微细胞的大小与多少、神经传递化学物质含量的多少、神经传递化学物质释放的速度、突触间隙的变化、树突的位置与大小等诸多因素都会对突触电位产生影响,从而影响神经元的输出脉冲响应。而人工神经元则忽略了这些影响,输入、输出关系十分简单。
2.信息上的差别 生物神经元传递的信息是脉冲,而人工神经元传递的信息是模拟电压。
3.规模与智能上的差别 目前,人工神经网络的规模还远小于生物神经网络,网络中神经元的数量一般在104个以下,显然,其智能也无法与生物神经网络相比。
14.BP和Hopfield有何区别?
答:BP网络是误差反向传播网络,属于多层感知器网络,输入和输出节点数根据需要设置,可用于模式识别,分类,预测等,hopfield神经网络属于无监督学习神经元网络,网络是单层反馈网络,有连续性和离散型之分。
标签:data- start wrap 三次 池化层 并且 脉冲 系统 kaa
原文地址:https://www.cnblogs.com/wangprince2017/p/9332465.html