声振论坛

 找回密码
 我要加入

QQ登录

只需一步,快速开始

查看: 3324|回复: 6

[控制理论] [转帖]神经控制系统

 关闭 [复制链接]
发表于 2005-11-23 09:58 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?我要加入

x
<FONT size=2>5.1 神经网络简介<BR><BR>5.1.1 人工神经网络研究的起源<BR><BR>  人工神经网络研究的先锋,McCulloch和Pitts曾于1943年提出一种叫做“似脑机器”(mindlike machine)的思想,这种机器可由基于生物神经元特性的互连模型来制造,这就是神经学网络的概念。他们构造了一个表示大脑基本组分的神经元模型,对逻辑操作系统表现出通用性。随着大脑和计算机研究的进展,研究目标已从“似脑机器”变为“学习机器”,为此一直关心神经系统适应律的Hebb提出了学习模型。Rosenblatt命名感知器,并设计一个引人注目的结构。到60年代初期,关于学习系统的专用设计指南有Widrow等提出的Adaline(adaptive linear element,即自适应线性元)以及Steinbuch等提出的学习矩阵。由于感知器的概念简单,因而在开始介绍时对它寄托很大希望。然而,不久之后Minsky和Papert从数学上证明了感知器不能实现复杂逻辑功能。<BR>  到了70年代,Grossberg 和 Kohonen对神经网络研究作出重要贡献。以生物学和心理学证据为基础,Grossberg提出几种具有新颖特性的非线性动态系统结构。该系统的网络动力学由一阶微分方程建模,而网络结构为模式聚集算法的自组织神经实现。基于神经元组织自己来调整各种各样的模式的思想,Kohonen发展了他在自组织映射方面的研究工作。Werbos在70年代开发一种反向传播算法。Hopfield在神经元交互作用的基础上引入一种递归型神经网络,这种网络就是有名的Hopfield网络。在80年代中叶,作为一种前馈神经网络的学习算法,Parker和Rumelhart等重新发现了反回传播算法。近年来,神经网络已在从家用电器到工业对象的广泛领域找到它的用武之地。<BR><BR>5.1.2 用于控制的人工神经网络<BR><BR>1.人工神经网络的特性<BR>(1)并行分布处理: 神经网络具有高度的并行结构和并行实现能力,因而能够有较好的耐故障能力和较快的总体处理能力。这特别适于实时控制和动态控制。<BR>(2)非线性映射: 神经网络具有固有的非线性特性,这源于其近似任意非线性映射(变换)能力。这一特性给非线性控制问题带来新的希望。<BR>(3)通过训练进行学习: 神经网络是通过所研究系统过去的数据记录进行训练的。一个经过适当训练的神经网络具有归纳全部数据的能力。因此,神经网络能够解决那些由数学模型或描述规则难以处理的控制过程问题。<BR>(4)适应与集成:神经网络能够适应在线运行,并能同时进行定量和定性操作。神经网络的强适应和信息熔合能力使得网络过程可以同时输入大量不同的控制信号,解决输入信息间的互补和冗余问题,并实现信息集成和熔合处理。这些特性特别适于复杂、大规模和多变量系统的控制。<BR>(5)硬件实现:神经网络不仅能够通过软件而且可借助软件实现并行处理。近年来,一些超大规模集成电路实现硬件已经问世,而且可从市场上购到。这使得神经网络具有快速和大规模处理能力的实现网络。 <BR><BR>  十分显然,神经网络由于其学习和适应、自组织、函数逼近和大规模并行处理等能力,因而具有用于智能控制系统的潜力。神经网络在模式识别、信号处理、系统辨识和优化等方面的应用,已有广泛研究。在控制领域,已经作出许多努力,把神经网络用于控制系统,处理控制系统的非线性和不确定性以及逼近系统的辨识函数等。根据控制系统的结构,可把神经控制的应用研究分为几种主要方法,诸如监督式控制、逆控制、神经自适应控制和预测控制等。我们将在后面详细讨论它们。<BR><BR>5.2 人工神经网络的结构<BR><BR>  神经网络的结构是由基本处理单元及其互连方法决定的。<BR><BR>5.2.1 神经元及其特性<BR><BR>  连接机制结构的基本处理单元与神经生理学类比往往称为神经元。每个构造起网络的神经元模型模拟一个生物神经元,如图5.1所示。该神经元单元由多个输入 ,i=1,2,...,n和一个输出y组成。中间状态由输入信号的权和表示,而输出为:(5.1) <BR><BR><BR>图5.1 神经元模型 <BR><BR>式(5.1)中,qj为神经元单元的偏置(阈值),wji为连接权系数(对于激发状态,wji取正值,对于抑制状态,wji取负值),n为输入信号数目,yj为神经元输出,t为时间,f(_)为输出变换函数,有时叫做激发或激励函数,往往采用0和1二值函数或S形函数,见图5.2,这三种函数都是连续和非线性的。一种二值函数可由下式表示:<BR>(5.2)<BR><BR>如图5.2(a)所示。一种常规的S形函数见图5.2(b),可由下式表示:<BR>(5.3)<BR>常用双曲正切函数(见图5.2(c))来取代常规S形函数,因为S形函数的输出均为正值,而双曲正切函数的输出值可为正或负。双曲正切函数如下式所示:<BR>(5.4) <BR><BR><BR>  图5.2 神经元中的某些变换(激发)函数 <BR><BR>5.2.2 人工神经网络的基本类型<BR><BR>1. 人工神经网络的基本特性<BR>  人工神经网络由神经元模型构成;这种由许多神经元组成的信息处理网络具有并行分布结构。每个神经元具有单一输出,并且能够与其它神经元连接;存在许多(多重)输出连接方法,每种连接方法对应一个连接权系数。严格地说,人工神经网络是一种具有下列特性的有向图:<BR>(1)对于每个节点i存在一个状态变量xi;<BR>(2)从节点j至节点i,存在一个连接权系统数wij;<BR>(3)对于每个节点i,存在一个阈值qi;<BR>(4)对于每个节点i,定义一个变换函数 fi(xi,wji,qi),i&sup1;j;对于最一般的情况,此函数取 形式。 <BR><BR>2. 人工神经网络的基本结构<BR>(1)递归网络 在递归网络中,多个神经元互连以组织一个互连神经网络,如图5.3所示。有些神经元的输出被反馈至同层或前层神经元。因此,信号能够从正向和反向流通。Hopfield网络,Elmman网络和Jordan网络是递归网络有代表性的例子。递归网络又叫做反馈网络。 <BR><BR><BR>  图5.3 递归(反馈)网络       图5.4 前馈(多层)网络 <BR><BR>图5.3中, vi表示节点的状态, xi为节点的输入(初始)值, xi&cent;为收敛后的输出值,i=1,2,...,n。<BR>(2)前馈网络 前馈网络具有递阶分层结构,由一些同层神经元间不存在互连的层级组成。从输入层至输出层的信号通过单向连接流通;神经元从一层连接至下一层,不存在同层神经元间的连接,如图5.4所示。图中,实线指明实际信号流通而虚线表示反向传播。前馈网络的例子有多层感知器(MLP)、学习矢量量化(LVQ)网络、小脑模型联接控制(CMAC)网络和数据处理方法(GMDH)网络等。 <BR><BR>3. 人工神经网络的主要学习算法<BR>  神经网络主要通过两种学习算法进行训练,即指导式(有师)学习算法和非指导式(无师)学习算法。此外,还存在第三种学习算法,即强化学习算法;可把它看做有师学习的一种特例。<BR>(1)有师学习 有师学习算法能够根据期望的和实际的网络输出(对应于给定输入)间的差来调整神经元间连接的强度或权。因此,有师学习需要有个老师或导师来提供期望或目标输出信号。有师学习算法的例子包括d 规则、广义d 规则或反向传播算法以及LVQ算法等。<BR>(2)无师学习 无师学习算法不需要知道期望输出。在训练过程中,只要向神经网络提供输入模式,神经网络就能够自动地适应连接权,以便按相似特征把输入模式分组聚集。无师学习算法的例子包括Kohonen算法和Carpenter-Grossberg自适应谐振理论(ART)等。<BR>(3)强化学习 如前所述,强化学习是有师学习的特例。它不需要老师给出目标输出。强化学习算法采用一个“评论员”来评价与给定输入相对应的神经网络输出的优度(质量因数)。强化学习算法的一个例子是遗传算法(GAs)。<BR><BR>5.2.3 人工神经网络的典型模型 <BR><BR>  迄今为止,有30多种人工神经网络模型被开发和应用。下面是它们之中有代表性的一些模型。<BR>(1)自适应谐振理论(ART) 由Grossberg提出的,是一个根据可选参数对输入数据进行粗略分类的网络。ART-1用于二值输入,而ART-2用于连续值输入。ART的不足之处在于过份敏感,输入有小的变化时,输出变化很大。<BR>(2)双向联想存储器(BAM) 由Kosko开发的,是一种单状态互连网络,具有学习能力。BAM的缺点为存储密度较低,且易于振荡。<BR>(3)Boltzmann机(BM) 由Hinton等提出的,是建立在Hopfield网基础上的,具有学习能力,能够通过一个模拟退火过程寻求解答。不过,其训练时间比BP网络要长。<BR>(4)反向传播(BP)网络 最初由Werbos开发的反向传播训练算法是一种迭代梯度算法,用于求解前馈网络的实际输出与期望输出间的最小均方差值。BP网是一种反向传递并能修正误差的多层映射网络。当参数适当时,此网络能够收敛到较小的均方差,是目前应用最广的网络之一。BP网的短处是训练时间较长,且易陷于局部极小。<BR>(5)对流传播网络(CPN) 由Hecht-Nielson提出的,是一个通常由五层组成的连接网。CPN可用于联想存储,其缺点是要求较多的处理单元。<BR>(6)Hopfield网 由Hopfield提出的,是一类不具有学习能力的单层自联想网络。Hopfield网模型由一组可使某个能量函数最小的微分方程组成。其短处为计算代价较高,而且需要对称连接。<BR>(7)Madaline算法 是Adaline算法的一种发展,是一组具有最小均方差线性网络的组合,能够调整权值使得期望信号与输出间的误差最小。此算法是自适应信号处理和自适应控制的得力工具,具有较强的学习能力,但是输入输出之间必须满足线性关系。<BR>(8)认知机(Neocogntion) 由Fukushima提出的,是至今为止结构上最为复杂的多层网络[20]。通过无师学习,认知机具有选择能力,对样品的平移和旋转不敏感。不过,认知机所用节点及其互连较多,参数也多且较难选取。<BR>(9)感知器(Perceptron) 由Rosenblatt开发的,是一组可训练的分类器[77],为最古老的ANN之一,现已很少使用。<BR>(10)自组织映射网(SOM) 由Kohonen提出的,是以神经元自行组织以校正各种具体模式的概念为基础的。SOM能够形成簇与簇之间的连续映射,起到矢量量化器的作用。<BR>  根据W.T.Illingworth提供的综合资料,最典型的ANN模型(算法)及其学习规则和应用领域如表5.1所列。 <BR><BR>表5.1 人工神经网络的典型模型 <BR><BR><BR><BR>5.3 人工神经网络示例及其算法<BR><BR>  由于许多人工神经网络已成为神经控制系统的主要环节,人工神经网络的许多算法已在神经控制中获得广泛采用,也就是说,许多ANN算法也就是神经控制算法或者是神经控制算法的基础,因此,有必要对一些重要的ANN网络及其算法加以简要讨论。<BR><BR>1. 多层感知器(MLP)<BR><BR>  多层感知器可能是最著名的前馈网络。图5.4给出一个三层MLP,即输入层、中间(隐含)层和输出层。输入层的神经元只起到缓冲器的作用,把输入信号xi分配至隐含层的神经元。隐含层的每个神经元j(见图5.1)在对输入信号加权wij 之后,进行求和,并计算出输出 作为该和的f函数,即<BR>(5.5)<BR>其中,f可为一简单的阈值函数或S型函数、双曲正切函数或径向基函数,如表5.2所示。 <BR><BR>表5.2 激发函数 <BR><BR>函数类型<BR>函数表达式<BR><BR>线性函数 <BR> <BR><BR>阈值函数 <BR> <BR><BR>S型函数 <BR> <BR><BR>双曲正切函数<BR><BR><BR>径向基函数 <BR> <BR><BR><BR>  在输出层神经元的输出量也可用类似方法计算。反向传播算法是一种最常采用的MLP训练算法,它给出神经元i和j间连接权的变化Dwji,如下式所示:<BR>(5.6)<BR>式中,h为一称为学习速率的参数,dj为一取决于神经元j是否为一输出神经元或隐含神经元的系数。对于输出神经元,<BR>(5.7)<BR>对于隐含神经元,<BR>(5.8)<BR>在上述两式中,netj表示所有输入信号对神经元j的加权总和,为神经元j的目标输出。<BR>  对于所有问题(多数平凡问题除外),为了适当地训练MLP需要几个信号出现时间。一种加速训练的方法是对式(5.6)加上一个“动量”项,以便使前面的权变化有效地影响新的权值变化,即<BR>(5.9)<BR>式中,Dwji(k+1) 和Dwji(k) 分别为信号出现时刻(k+1)和k的权值变化,m为“动量”系数。<BR>  另一种适于训练MLP的学习算法是遗传算法(GAs),其流程如图5.5所示。这是一种基于进化原理的优化算法,它把连接权值看作一染色体内的一些基因。染色体的优点在于直接涉及MLP被训练得怎么好。该算法以某个随机产生的染色体群体开始,并应用基因算子产生新的更为合适的群体。最普通的基因算子为选择、交叉和变异算子。选择算子从现有群体选择染色体供繁殖用。通常采用一个有倾向性的选择程序来促成更合适的染色体。交叉算子通过在随机位置切开染色体并交换切开后续位置内的成分,从两个现存的染色体产生两个新的染色体,见表5.3。变异算子通过随机地改变现有染色体的基因,产生新的染色体,见表5.4。这些算子一起模拟一个导向随机搜索方法,此方法最终能够求得神经网络的目标输出。 <BR><BR><BR>        图5.5 简单的遗传算法流程图 <BR><BR>表5.3 交叉作用 <BR><BR>父辈1<BR>父辈2<BR>新信息串1<BR>新信息串2<BR>  1   0   0   0   1   0   0   1   1   1   1   0<BR>0   1   1   0   1   1   0   0   0   1   1   0<BR>1   0   0   0   1   1   0   1   1   1   1   0<BR>0   1   1   0   1   0   0   0   0   1   1   0 <BR><BR>表5.4 变异作用 <BR><BR>老信息串1<BR>新信息串2<BR>  1 1 0 0 0 1 0 1 1 1 0 1<BR>1 1 0 0 1 1 0 1 1 1 0 1 <BR><BR><BR><BR>2. 数据群处理方法(GMDH)网络<BR><BR>  图5.6和图5.7分别表示一个数据群处理方法网络及其一个神经元的细节。每个GMDH神经元是一N-Adalilne,后者为一含有非线性预处理器的自适应线性元件。与以前介绍过的具有固定结构的前馈神经网络不同,GMDH网络的结构在训练过程中发展。GMDH网络中的每个神经元通常有两个输入(x1 和x2),并产生一个输出y,它是这些输入的二次组合(如图5.7所示),即<BR>(5.10) <BR><BR><BR><BR><BR>图5.6 一个受训练的GMDH网络 <BR><BR>  训练GMDH网络包含下列过程:从输入层开始构造网络,调整每个神经元的权值,增加层数直至达到映射精度为止。第一层的神经元数决定了可能得到的外部输入数。对于一对外部输入,需要使用一个神经元。进行训练时,把一个输入模式送至输入层,并根据适当的学习算法调整每个神经元的权值。 <BR><BR><BR><BR>图5.7 一个GMDH神经元的详图 <BR><BR>3. 自适应谐振理论(ART)网络<BR><BR>  自适应谐振理论(ART)网络具有不同的版本。图5.8表示ART-1版本,用于处理二元输入。新的版本,如ART-2,能够处理连续值输入。 <BR><BR><BR><BR>图5.8 一个ART-1网络 <BR><BR>  从图5.8可见,一个ART-1网络含有两层,一个输入层和一个输出层。这两层完全互连,该连接沿着正向(自底向上)和反馈(自顶向下)两个方向进行。自底向上连接至一个输出神经元i的权矢量Wi形成它所表示的类的一个样本。全部权矢量Wi构成网络的长期存储器,用于选择优胜的神经元,该神经元的权矢量Wi最相似于当前输入模式。自顶向下从一个输出神经元i连接的权矢量 用于警戒测试,即检验某个输入模式是否足够靠近已存储的样本。警戒矢量Vi构成网络的短期存储器。Vi和Wi是相关的,Wi是Vi的一个规格化副本,即<BR>(5.11)<BR>式中,e为一小的常数,Vji为Vi的第j个分量(即从输出神经元i到输入神经元j连接的权值)。<BR>  当ART-1网络在工作时,其训练是连续进行的,且包括下列步骤:<BR>(1)对于所有输出神经元,预置样本矢量Wi及警戒矢量Vi的初值,设定每个Vi的所有分量为1,并据式(5.11)计算Wi。如果一个输出神经元的全部警戒权值均置1,则称为独立神经元,因为它不被指定表示任何模式类型。<BR>(2)给出一个新的输入模式x。<BR>(3)使所有的输出神经元能够参加激发竞争。<BR>(4)从竞争神经元中找到获胜的输出神经元,即这个神经元的x.Wi 值为最大;在开始训练时或不存在更好的输出神经元时,优胜神经元可能是个独立神经元。<BR>(5)检查看该输入模式x是否与获胜神经元的警戒矢量 足够相似。相似性是由x的位分式r检测的,即<BR>(5.12)<BR>如果r值小于警戒阈值r (0&lt;r &lt;1),那么可以认为x与Vi是足够相似的。<BR>(6)如果r&sup3; r ,即存在谐振,则转向第(7)步;否则,使获胜神经元暂时无力进一步竞争,并转向第(4)步,重复这一过程直至不存在更多的有能力的神经元为止。<BR>(7)调整最新获胜神经元的警戒矢量Vi,对它逻辑加上x,删去Vi内而不出现在x内的位;据式(5.11),用新的Vi计算自底向上样本矢量Wi;激活该获胜神经元。<BR>(8)转向第(2)步。<BR>  上述训练步骤能够做到:如果同样次序的训练模式被重复地送至此网络,那么其长期和短期存储器保持不变,即该网络是稳定的。假定存在足够多的输出神经元来表示所有不同的类,那么新的模式总是能够学得,因为新模式可被指定给独立输出神经元,如果它不与原来存储的样本很好匹配的话(即该网络是塑性的)。</FONT><BR>
回复
分享到:

使用道具 举报

 楼主| 发表于 2005-11-23 09:58 | 显示全部楼层

回复:(凛峰)[转帖]神经控制系统

<FONT size=2>4. 学习矢量量化(LVQ)网络 <BR><BR>  图5.9给出一个学习矢量量化(LVQ)网络,它由三层神经元组成,即输入转换层、隐含层和输出层。该网络在输入层与隐含层间为完全连接,而在隐含层与输出层间为部分连接,每个输出神经元与隐含神经元的不同组相连接。隐含-输出神经元间连接的权值固定为1。输入-隐含神经元间连接的权值建立参考矢量的分量(对每个隐含神经元指定一个参考矢量)。在网络训练过程中,这些权值被修改。隐含神经元(又称为Kohnen神经元)和输出神经元都具有二进制输出值。当某个输入模式送至网络时,参考矢量最接近输入模式的隐含神经元因获得激发而赢得竞争,因而允许它产生一个“1”。其它隐含神经元都被迫产生“0”。与包含获胜神经元的隐含神经元组相连接的输出神经元也发出“1”,而其它输出神经元均发出“0”。产生“1”的输出神经元给出输入模式的类,每个输出神经元被表示为不同的类。 <BR><BR><BR><BR>图5.9 学习矢量化网络 <BR><BR>最简单的LVQ训练步骤如下:<BR>(1)预置参考矢量初始权值。<BR>(2)供给网络一个训练输入模式。<BR>(3)计算输入模式与每个参考矢量间的Euclidean距离。<BR>(4)更新最接近输入模式的参考矢量(即获胜隐含神经元的参考矢量)的权值。如果获胜隐含神经元以输入模式一样的类属于连接至输出神经元的缓冲器,那么参考矢量应更接近输入模式。否则,参考矢量就离开输入模式。<BR>(5)转至(2),以某个新的训练输入模式重复本过程,直至全部训练模式被正确地分类或者满足某个终止准则为止。<BR><BR>5. Kohonen网络<BR><BR>  Kohonen网络或自组织特征映射网络含有两层,一个输入缓冲层用于接收输入模式,另一为输出层,见图5.10。输出层的神经元一般按正则二维阵列排列,每个输出神经元连接至所有输入神经元。连接权值形成与已知输出神经元相连的参考矢量的分量。<BR>训练一个Kohonen网络包含下列步骤:<BR>(1)对所有输出神经元的参考矢量预置小的随机初值。<BR>(2)供给网络一个训练输入模式。<BR>(3)确定获胜的输出神经元,即参考矢量最接近输入模式的神经元。参考矢量与输入矢量间的Euclidean距离通常被用作距离测量。<BR>(4)更新获胜神经元的参考矢量及其近邻参考矢量。这些参考矢量(被引至)更接近输入矢量。对于获胜参考矢量,其调整是最大的,而对于离得更远的神经元,减少调整。一个神经邻域的大小随着训练进行而减小,到训练末了,只有获胜神经元的参考矢量被调整。 <BR><BR><BR>图5.10 Kohonen网络 <BR><BR>  对于一个很好训练了的Kohonen网络,相互靠近的输出神经元具有相似的参考矢量。经过训练之后,采用一个标记过程,其中,已知类的输入模式被送至网络,而且类标记被指定给那些由该输入模式激发的输出神经元。当采用LVQ网络时,如果一个输出神经元在竞争中胜过其它输出神经元(即它的参考矢量最接近某输入模式),那么此获胜输出神经元被该输入模式所激发。<BR><BR>6. Hopfield网络<BR><BR>  Hopfield网络是一种典型的递归网络(见图5.3)。图5.11表示Hopfield网络的一种方案。这种网络通常只接受二进制输入(0或1)以及双极输入(+1或-1)。它含有一个单层神经元,每个神经元与所有其它神经元连接,形成递归结构。Hopfield网络的训练只有一步,网络的权值 被直接指定如下:<BR>(5.13)<BR><BR>式中,wij为从神经元i至神经元j的连接权值, xic(可为+1或-1)是c类训练输入模式的第i个分量,p为类数,N为神经元数或输入模式的分量数。从式(5.1.3)可以看出,wij =wji以及wii=0,为一组保证网络稳定的条件。当一种未知模式输至此网络时,设置其输出初始值等于未知模式的分量,即<BR>(5.14) <BR><BR><BR>图5.11 一种Hopfield网络 <BR><BR>  从这些初始值开始,网络根据下列方程迭代工作,直至达到某个最小的能量伏态,即其输出稳定于恒值:<BR>(5.15)<BR>式中,f为一硬性限制函数,定义为:<BR>(5.16)<BR><BR>7. Elman and Jordan网络<BR><BR>  图5.12和图5.13分别示出Elman网络和Jordan网络。这两种网络具有与MLP网络相似的多层结构。在这两种网络中,除了普通的隐含层外,还有一个特别的隐含层,有时称为上下文层或状态层;该层从普通隐含层(对于Elman网)或输出层(对于Jordan网)接收反馈信号。Jordan网还对上下文层的每个神经元进行自反馈连接。对于这两种网络,上下文层内的神经元输出被前(正)向送至隐含层。如果只有正向连接是适用的,而反馈连接被预定为恒值,那么这些网络可视为普通的前馈网络,而且可以采用BP算法进行训练。否则,可采用遗传算法。 <BR><BR><BR>图5.12 Elman网络 图5.13 Jordan网络 <BR><BR>8. 小脑模型联接控制(CMAC)网络<BR><BR>  CMAC网络可视为一种具有模糊联想记忆特性监督式(有导师)前馈神经网络。图5.14表示CMAC网络的基本模块。 <BR><BR><BR>图5.14 CMAC网络的基本模块 <BR><BR>  CMAC由一系列映射组成:<BR>(5.17)<BR>式中,S={输入矢量},M={中间变量},A={联想单元矢量},u=CMAC的输出&#61626; h(S), h&#61626;g &#61551; f &#61551; e。<BR>  上述映射(变换)可说明于下:<BR>(1)输入编码(S→M映射)<BR>S→M映射是一子映射的集合,每个子映射对应一个输入变量,即:<BR>(5.18)<BR>si的域可通过量化函数q1,q2,...,qk被近似地离散化。每个量化函数把域分为k个间隔。<BR>图5.15作图举例说明在CMAC内的内映射。图中,S→M映射表示在图的最左面。<BR><BR><BR><BR>图5.15 CAMC模块内的内映射 <BR><BR>  图5.15中,两个输入变量S1和S2均由0至8域内的单位分辩度表示。每个输入变量的域采用三个量化函数来描述。例如,S1的域由函数q1,q2和q3描述。q1把域分为A、B、C和D四个间隔;q2给出间隔E、F、G和H;q3提供间隔I、J、K和L。也就是:<BR>q1={A,B,C,D}<BR>q2={E,F,G,H} <BR>q3={I,J,K,L} <BR>  对于每个S1值,存在一元素集合m1为函数q1和q2的交积,使得S1的值唯一地确定m1集合,而且反之亦然。例如,S1=5映射至集合m1={B, G, K},而且反之亦然。类似地,值S2=4映射至集合m2={b, g, j},而且反之亦然。<BR>  S→M映射为CMAC网络提供了两个好处。首先,可把单个精确变量 通过几个非精确信息通道传送,每个通道只传递Si的一小部分信息。这可提高信息传送的可靠性。另一个好处是Si值的较小变化不会对mi内的大多数元素产生影响;这导致输入特性的一般化。对于存在噪声的环境,这一点是很重要的。<BR>(2)地址计算(M→A映射)<BR>  A为一与权值表相连系的地址矢量集合,且由mi的元素组合而成。例如,图5.15中,集合m1={B,G,K}和m2={b,g,j}被组合并得到元素集合A={a1,a2,a3}= {Bb, Gg, Kj}。<BR>(3)输出映射(A→u映射) <BR>  这一映射包括查询权值表和加入地址位置的内容,以求取网络的输出值。采用下列计算公式:<BR>(5.19)<BR>这就是说,只对那些与a内的地址 有关系的权值求和。例如,这些权值为:<BR>w(Bb)=x1,w(Gg)=x2,w(Kj)=x3<BR>于是可得输出为:<BR>(5.20)<BR><BR>5.4 神经控制的结构方案<BR><BR>  由于分类方法的不同,神经控制器的结构也就有所不同。本节将简要介绍神经控制结构的典型方案,包括NN学习控制、NN直接逆控制、NN自适应控制、NN内模控制、NN预测控制、NN最优决策控制、NN再励控制、CMAC控制、分级NN控制和多层NN控制等。<BR><BR>1. NN学习控制<BR><BR>  由于受控系统的动态特性是未知的或者仅有部分是已知的,因此需要寻找某些支配系统动作和行为的规律,使得系统能被有效地控制。在有些情况下,可能需要设计一种能够模仿人类作用的自动控制器。基于规则的专家控制和模糊控制是实现这类控制的两种方法,而神经网络(NN)控制是另一种方法,我们称它为基于神经网络的学习控制、监督式神经控制,或NN监督式控制。图5.16给出一个NN学习控制的结构,图中,包括一个导师(监督程序)和一个可训练的神经网络控制器(NNC)。控制器的输入对应于由人接收(收集)的传感输入信息,而用于训练的输出对应于人对系统的控制输入。<BR><BR><BR><BR>图5.16 基于神经网络的监督式控制 <BR><BR>  实现NN监督式控制的步骤如下:<BR>(1)通过传感器和传感信息处理,调用必要的和有用的控制信息。<BR>(2)构造神经网络,选择NN类型、结构参数和学习算法等。<BR>(3)训练NN控制器,实现输入和输出间的映射,以便进行正确的控制。在训练过程中,可采用线性律、反馈线性化或解耦变换的非线性反馈作为导师(监督程序)来训练NN控制器。<BR>  NN监督式控制已被用于标准的倒摆小车控制系统。<BR><BR>2. NN直接逆模型控制<BR><BR>  顾名思义,NN直接逆控制采用受控系统的一个逆模型,它与受控系统串接以便使系统在期望响应(网络输入)与受控系统输出间得到一个相同的映射。因此,该网络(NN)直接作为前馈控制器,而且受控系统的输出等于期望输出。本控制方案已用于机器人控制,即在Miller开发的CMAC网络中应用直接逆控制来提高PUMA机器人操作手(机械手)的跟踪精度达到。这种方法在很大程度上依赖于作为控制器的逆模型的精确程度。由于不存在反馈,本法鲁棒性不足。逆模型参数可通过在线学习调整,以期把受控系统的鲁棒性提高至一定程度。<BR>图5.17给出NN直接逆控制的两种结构方案。在图5.17(a)中,网络NN1和NN2具有相同的逆模型网络结构,而且采用同样的学习算法。图5.17(b)为NN直接逆控制的另一种结构方案,图中采用一个评价函数(EF)。<BR><BR><BR><BR>(a) (b)<BR>图5.17 NN直接逆控制 <BR><BR>3. NN自适应控制<BR><BR>  与常规自适应控制一样,NN自适应控制也分为两类,即自校正控制(STC)和模型参考自适应控制(MRAC)。STC和MRAC之间的差别在于:STC根据受控系统的正和/或逆模型辨识结果直接调节控制器的内部参数,以期能够满足系统的给定性能指标;在MRAC中,闭环控制系统的期望性能是由一个稳定的参考模型描述的,而该模型又是由输入-输出对{r(t),yr(t)}确定的。本控制系统的目标在于使受控装置的输入y(t)与参考模型的输出渐近地匹配,即<BR>(5.21)<BR>式中,e为一指定常数。 <BR><BR>1. NN自校正控制(STC)<BR>  基于NN的STC有两种类型,直接STC和间接STC。<BR>(1)NN直接自校正控制<BR>  该控制系统由一个常规控制器和一个具有离线辨识能力的识别器组成;后者具有很高的建模精度。NN直接自校正控制的结构基于上与直接逆控制相同。<BR>(2)NN间接自校正控制<BR>  本控制系统由一个NN控制器和一个能够在线修正的NN识别器组成;图5.18表示出NN间接STC的结构。 <BR><BR><BR>图5.18 NN间接自校正控制 <BR><BR>  一般,我们假设受控对象(装置)为如下式所示的单变量非线性系统:<BR>(5.22)<BR>式中,和为非线性函数。令和分别代表和的估计值。如果和是由神经网络离线辨识的,那么能够得到足够近似精度的和,而且可以直接给出常规控制律:<BR>(5.23)<BR><BR>式中,yd,k+1为在(k+1)时刻的期望输出。 <BR><BR>2. NN模型参考自适应控制<BR>  基于NN的MRAC也分为两类,即NN直接MARC和NN间接MRAC。<BR>(1)NN直接模型参考自适应控制<BR>  从图5.19的结构可知,直接MRAC神经网络控制器力图维持受对象输出与参考模型输出间的差。由于反向传播需要知道受控对象的数学模型,因而该NN控制器的学习与修正已遇到许多问题。<BR><BR><BR><BR>图5.19 NN直接模型参考自适应控制 <BR><BR>(2)NN间接模型参考自适应控制<BR>  该控制系统结构如图5.20所示,图中,NN识别器(NNI)首先离线辨识受控对象的前馈模型,然后由ei(t)进行在线学习与修正。显然,NN1能提供误差ec(t)或者其变化率的反向传播。 <BR><BR><BR>图5.20 NN间接模型参考自适应控制 <BR><BR>4. NN内模控制<BR><BR>  在常规内模控制(IMC)中,受控系统的正和逆模型被用作反馈回路内的单元。IMC经全面检验表明其可用于鲁棒性和稳定性分析,而且是一种新的和重要的非线性系统控制方法。基于NN的内模控制的结构图示于图5.21,其中,系统模型(NN2)与实际系统并行设置。反馈信号由系统输出与模型输出间的差得到,而且然后由NN1(在正向控制通道上一个具有逆模型的NN控制器)进行处理;NN1控制器应当与系统的逆有关。 <BR><BR><BR>图5.21 NN内模控制 <BR><BR>  图5.21中,NN2也是基于神经网络的但具有系统的正向模型。该图中的滤波器通常为一线性滤波器,而且可被设计满足必要的鲁棒性和闭环系统跟踪响应。<BR><BR>5. NN预测控制<BR><BR>  预测控制是一种基于模型的控制,它是70年代发展起来的一种新的控制算法,具有预测模型、滚动优化和反馈校正等特点。已经证明本控制方法对于非线性系统能够产生有希望的稳定性。<BR>  图5.22表示NN预测控制的一种结构方案;图中,神经网络预测器NNP为一神经网络模型,NLO为一非线性优化器。NNP预测受控对象在一定范围内的未来响应:<BR>y(t+j|t),j=N1,N1+1,...,N2 <BR>式中,N1和N2分别叫做输出预测的最小和最大级别,是规定跟踪误差和控制增量的常数。<BR><BR><BR><BR>图5.22 NN预测控制 <BR><BR>  如果在时刻(t+j)的预测误差定义为:<BR>(5.24)<BR>那么非线性优化器NLO将选择控制信号u(t)使二次性能判据J为最小:<BR>(5.25)<BR>式中,Du(t+j-1) = u(t+j-1) - u(t+j-2),而l为控制权值。<BR>算法5.1 基于神经网络的预测控制算法步骤如下:<BR>  (1)计算期望的未来输出序列<BR>    r(t+j),j =N1,N1+1,...,N2<BR>  (2)借助NN预测模型,产生预测输出<BR>    y(t+j|t),j=N1,N1+1,...,N2<BR>  (3)计算预测误差<BR>    e(t+j) =r(t+j)-y(t+j|t),j =N1,N1+1,...,N2<BR>  (4)求性能判据J的最小值,获得最优控制序列<BR>    u (t+j), j=0, 1, 2, ..., N;<BR>  (5)采用u(t)作为第一个控制信号,然后转至第(1)步。<BR>  值得说明的是,NLO实际上为一最优算法,因此,可用动态反馈网络来代替由本算法实现的NLO和由前馈神经网络构成的NNP。<BR><BR>6. NN自适应判断控制<BR><BR>  无论采用何种神经网络控制结构,所有控制方法都有一个共同点,即必须提供受控对象的期望输入。但是,当系统模型未知或部分未知时,就很难提供这种期望输入。NN自适应判断控制或强化控制是由Barto等提出的,并由Anderson发展的,它应用强化学习的机理。这种控制系统通常由两个网络组成,即自适应判断网络AJN和控制选择网络CSN,如图5.23所示。 <BR><BR><BR>图5.23 NN自适应判断控制 <BR><BR>  本控制系统中,AJN相当于强化学习需要的“教师”,它起到两种作用:(1)通过不断的奖罚强化学习,使AJN逐渐训练为一个熟练的教师;(2)经过学习后,根据受控系统的当前状态和外部强化反馈信号r(t),AJN产生一强化信号,然后提供内部强化信号 ,以便能够判断当前控制作用的效果。CSN相当于多层前馈神经网络控制器,它在内部强化信号的引导下进行学习。通过学习,CSN根据系统编码后的状态,选择下一个控制作用。<BR><BR>7. 基于CMAC的控制<BR><BR>  CMAC是由Albus开发的,是近年来获得应用的几种主要神经控制器之一。把CMAC用于控制有两种方案。第一种方案的结构如图5.24所示。在该控制系统中,指令信号反馈信号均用作CMAC控制器的输入。控制器输出直接送至受控装置(对象)。必须提供神经网络控制器的期望输出。控制器的训练是以期望输出和控制器实际输出间的差别为基础的。系统工作分两阶段进行。第一阶段为训练控制器。当CMAC接收到指令和反馈信号时,它产生一个输出,此输出与期望输出 进行比较;如果两者存在差别,那么调整权值以消除该差别。经过这阶段的竞争,CMAC已经学会如何根据给定指令和所测反馈信号产生合适的输出,用于控制受控对象。第二阶段为控制。当需要的控制接近所训练的控制要求时,CMAC就能够很好地工作。这两个阶段工作的完成都无需分析装置的动力学和求解复杂的方程式。不过,在训练阶段,本方案要求期望的装置输入是已知的。<BR><BR><BR><BR>图5.24 基于CMAC的控制(Ⅰ) <BR><BR>  第二种控制方案图示于图5.25。在本方案中,参考输出方块在每个控制周期产生一个期望输出。该期望输出被送至CMAC模块,提供一个信号作为对固定增益常规偏差反馈控制器控制信号的补充。在每个控制周期之末,执行一步训练。在前一个控制周期观测到的装置输出用作CMAC模块的输入。用计算的装置输入 与实际输入u之间的差来计算权值判断。当CMAC跟随连续控制周期不断训练时,CMAC函数在特定的输入空间域内形成一个近似的装置逆传递函数。如果未来的期望输出在域内相似于前面预测的输出,那么,CMAC的输出也会与所需的装置实际输入相似。由于上述结果,输出误差将很小,而且CMAC将接替固定增益常规控制器。<BR><BR><BR><BR>图5.25 基于CAMC的控制(Ⅱ) <BR><BR>  根据上述说明,方案1为一闭环控制系统,因为除了指令变量外,反馈变量也用作CMAC模块的输入,加以编码,使得装置输出的任何变化能够引起装置接收到的输入的变化。方案1中权值判断是以控制器期望输出与控制器实际输出间的误差(而不是装置的期望输出与装置的实际输出间的误差)为基础的。如已述及,这就要求设计者指定期望的控制器输出,并将出现问题,因为设计者通常只知道期望的装置输出。方案1中的训练可看做对一个适当的反馈控制器的辨识。在方案2中,借助于常规固定增益反馈控制器,CMAC模块用于学习逆传递函数。经训练后,CMAC成为主控制器。本方案中,控制与学习同步进行。本控制方案的缺点是需要为受控装置设计一个固定增益控制器。</FONT><BR>
 楼主| 发表于 2005-11-23 09:59 | 显示全部楼层

回复:(凛峰)[转帖]神经控制系统

<FONT size=2>8. 多层NN控制<BR><BR>多层神经网络控制器基本上是一种前馈控制器。让我们考虑图5.26所示的一个普通的多层神经控制系统。该系统存在两个控制作用:前馈控制和常规馈控制。前馈控制由神经网络实现;前馈部分的训练目标在于使期望输出与实际装置输出间的偏差为最小。该误差作为反馈控制器的输入。反馈作用与前馈作用被分别考虑,特别关注前馈控制器的训练而不考虑反馈控制的存在。已提出多层NN控制器的三种结构:间接结构、通用结构和专用结构。 <BR><BR><BR>图5.26 多层NN控制的一般结构 <BR><BR>1. 间接学习结构<BR>图5.27所示的间接多层NN控制结构含有两个同样的神经网络,用于训练。在本结构中,每个网络作为一个逆动态辨识器。训练的目标是要从期望响应d中找到一个合适的装置控制u。以网络Ⅰ和网络Ⅱ间的差为基础来调整权值,使得误差e为最小;如果能够训练网络Ⅰ使得y=d,那么,u=u* 。不过,这并不能保证期望输出d与实际输出y之间的差别为最小。 <BR><BR><BR>图5.27 间接学习结构的多层NN控制 <BR><BR>2. 通用学习结构<BR>图5.28绘出多层nn控制的通用学习结构,它使图5.27中的e=d-g为最小。该网络被训练使得装置输入u与网络输出u*间的差别为最小。在训练时,u应当处在这样的范围内使得y复盖期望输出d。训练之后,如果某一期望输出d被送至网络,那么该网络就能够为受控装置提供一个合适的u。本结构的局限性是:一般无法知道哪一个u对应于期望输出d,因而网络不得不在u的大范围内进行训练以求经过学习能够使装置输出y包括期望值d。 <BR><BR><BR>图5.28 通用学习结构 图5.29 专用学习结构 <BR><BR>3. 专用学习结构<BR>多层NN控制的专用学习结构如图5.29所示。当神经网络训练时,期望输出d是该网络的输入。采用误差反向传播方法,经过训练使期望输出d与装置的实际输出y之间的差别e为最小。因此,不仅能够期望得到良好的装置输出,而且训练能够在期望输出范围内执行,而不需要知道装置的合适输入范围。不过,本结构中把装置当作网络的一层来处理。为了训练该网络,或者必须知道装置的动力学模型,或者必须进行某种近似处理。对多层神经网络控制器的训练是由误差反向传播训练算法来完成的。该误差可为期望输出与实际装置输出间的差,也可为校正装置输入与由神经网络计算得到的输入之间的差。<BR><BR>9. 分级NN控制<BR><BR>基于神经网络的分级控制模型如图5.30所示。图中,d为受控装置的期望输出,u为装置的控制输入,y为装置的实际输出,u*和y*为由神经网络给出的装置计算输入与输出。该系统可视为由三部分组成。第一部分为一常规外反馈回路。反馈控制是以期望装置输出d与由传感器测量的实际装置输出y间的误差e为基础的,即以 e=(d-y)为基础的。通常,常规外反馈控制器为一比例微分控制器。第二部分是与神经网络Ⅰ连接的通道,该网络为一受控对象的动力学内模型,用于监控装置的输入u和输出y,且学习受控对象的动力学特性。当接收到装置的输入u时,经过训练,神经网络Ⅰ能够提供一个近似的装置输出 y*。从这个意义上看,这部分起到系统动态特性辨识器的作用。以误差 d-y*为基础,这部分提供一个比外反馈回路快得多的内反馈回路,因为外反馈回路一般在反馈通道上有传感滞后作用。系统的第三部分是神经网络Ⅱ,它监控期望输出d和装置输入u。这个神经网络学习建立装置的内动力学模型;当它收到期望输出指令d时,经过训练,它能够产生一个合适的装置输入分量u*。该受控对象的分级神经网络模型按下列过程运作。传感反馈主要在学习阶段起作用,此回路提供一个常规反馈信号去控制装置。由于传感延时作用和较小的可允许控制增益,因而系统的响应较慢,从而限制了学习阶段的速度。在学习阶段,神经网络Ⅰ学习系统动力学特性,而神经网络Ⅱ学习逆动力学特性。随着学习的进行,内反馈逐渐接替外反馈的作用,成为主控制器。然后,当学习进一步进行时,该逆动力学部分将取代内反馈控制。最后结果是,该装置主要由前馈控制器进行控制,因为装置的输出误差与内反馈一起几乎不复存在,从而提供处理随机扰动的快速控制。在上述过程中,控制与学习同步执行。两个神经网络起到辨识器的作用,其中一个用于辨识装置动力学特性,另一个用于辨识逆动力学特性。 <BR><BR><BR>图5.30 分级神经网络控制器 <BR><BR>很重要的一点是,可把分级神经网络模型控制系统分为两个系统,即基于正向动力学辨识器的系统(见图5.31)和基于逆向动力学辨识器的系统(见图5.32),可以单独应用它们。 <BR><BR><BR>图5.31 基于正向动力学辨识器的控制系统<BR><BR>图5.32 基于逆向动力学辨识器的控制系统 <BR><BR>总之,基于分级神经网络模型的控制系统具有下列特点:<BR>(1)该系统含有两个辨识器,一个用于辨识装置的动力学特性,另一个用于辨识装置的逆动力学特性。<BR>(2)存在一个主反馈回路,它对训练神经网络是很重要的。<BR>(3)当训练进行时,逆动力学部分变为主控制器。<BR>(4)本控制的最后效果与前馈控制的效果相似。<BR><BR>5.5 模糊逻辑、专家系统及神经网络在控制中的集成<BR><BR>5.5.1 模糊神经网络原理<BR><BR>在过去十年中,模糊逻辑和神经网络已在理论和应用方面获得独立发展,然而,近年来,已把注意力集中到模糊逻辑与神经网络的集成上,以期克服各自的缺点。我们已分别讨论过模糊逻辑和神经网络的特性,在此,我们对它们进行比较于表5.5。<BR><BR>表5.5 模糊系统与神经网络的比较<BR><BR><BR>技术 <BR>模糊系统 <BR>神经网络 <BR><BR>知识获取<BR>不确定性<BR>推理方法<BR>适应能力 <BR>人类专家(交互)<BR>定量与定性(决策)<BR>启发式搜索(低速)<BR>低<BR>采样数据集合(算法)<BR>定量(感知)<BR>并行计算(高速)<BR>很高(调整连接权值) <BR><BR><BR>要使一个系统能够更象人类一样处理认知的不确定性,可以把模糊逻辑与神经网络集成起来,形成一个新的研究领域,即模糊神经网络(FNN)。实现这种组合的方法基本上分为两种。第一种方法在于寻求模糊推理算法与神经网络示例之间的功能映射,而第二种方法却力图找到一种从模糊推理系统到一类神经网络的结构映射。下面我们将详细讨论模糊神经网络的概念、算法和应用方案。 <BR><BR>1. FNN的概念与结构<BR>Buckely在他的论文中提出对模糊神经网络的定义。为简化起见,让我们考虑三层前馈神经网络,见图5.33。 <BR><BR><BR>图5.33 神经网络FNN3 <BR><BR>不同类型的模糊神经网络的定义如下:<BR>定义5.1 一个正则模糊神经网络(RFNN)为一具有模糊信号和(或)模糊权值的神经网络,即(1)FNN1具有实数输入信号和模糊权值;(2)FNN2具有模糊集输入信号和实数权值;(3)FNN3具有模糊集输入信号和模糊权值。<BR>定义5.2 混合模糊神经网络(HFNN)是另一类FNN,它组合模糊信号和神经网络权值,应用加和乘等操作获得神经网络输入。<BR>下面,我们较详细地叙述FNN3的内部计算。设FNN3具有同图5.33一样的结构。输入神经元1和2的输入分别为模糊信号X1和X2,于是隐含神经元k输入为:<BR>Ik=X1W1k+X2W2k,k=1,2,...,K (5.26)<BR>而第k个隐含神经元的输出为:<BR>Zk=f(Ik),,k=1,2,...,K (5.27)<BR>若f为一S函数,则输出神经元的输入为:<BR>I0=Z1V1+Z2V2+...+ZkVk (5.28)<BR>最后输入为:<BR>Y =f(I0) (5.29)<BR>式(5.29)中,应用了正则模糊运算。 <BR><BR>2. FNN的学习算法<BR>对于正则神经网络,其学习算法主要分为两类,即需要外部教师信号的监督式(有师)学习以及只靠神经网络内部信号的非监督(无师)学习。这些学习算法可被直接推广至FNN。FNNI(Ⅰ=1,2,3)的最新研究工作可归纳于下:<BR>(1)模糊反向传播算法<BR>基于FNN3的模糊反向传播算法是由Barkley开发的。令训练集合为(Xl,Tl),Xl=(Xl1,Xl2)为输入,而Tl为期望输出,1&pound; l &pound; L。对于Xl的实际输出为Yl。假定模糊信号和权值为三角模糊集,使误差测量<BR>(5.30)<BR>为最小。然后,对反向传播中的标准D规则进行模糊化,并用于更新权值。由于模糊运算需要,还得出了一种用于迭代的专门终止规则。不过,这个算法的收敛问题仍然是个值得研究的课题。<BR>(2)基于α分割的反向传播算法<BR>为了改进模糊反向传播算法的特性,已作出一些努力。在文献中,已对一种用于FNN3的单独权值a-切割反向传播算法进行讨论。通常把模糊集合A的α切割定义为:<BR>A[&#61537;]= (A[a ]={x|mA(x) &sup3;a},0&lt;a &pound;1(5.31)<BR>此外,在文献中还得出了另一种基于α切割的反向传播算法。不过,这些算法的最突出的缺点是其输入模糊信号和模糊权值类型的局限性。通常,取这些模糊隶属函数为三角形。<BR>(3)遗传算法<BR>为了改善模糊控制系统的性能,已在模糊系统中广泛开发遗传算法的应用。遗传算法能够产生一个最优的参数集合用于基于初始参数的主观选择或随机选择的模糊推理模型。文献介绍了遗传算法在模糊神经网络中的训练问题。所用遗传算法的类型将取决于用作输入和权值的模糊集的类型以及最小化的误差测量。<BR>(4)其它学习算法<BR>模糊浑沌(fuzzy chaos)以及基于其它模糊神经元的算法将是进一步研究感兴趣的课题。 <BR><BR>3. FNN的逼近能力<BR>已经证明,正则前馈多层神经网络具有高精度随着逼近非线性函数的能力,这对非线性不定控制的应用是种很有吸引力的能力。模糊系统好像也可作为通用近似器。现在已对FNN的近似器能力表现出高度兴趣。已得出结论,基于模糊运算和扩展原理的RFNN不可能成为通用挖器,而HFNN因无需以标准模糊运算为基础而能够成为通用近似器。这些结论对建立FNN控制器可能是有用的。<BR><BR></FONT>
 楼主| 发表于 2005-11-23 10:00 | 显示全部楼层

回复:(凛峰)[转帖]神经控制系统

<FONT size=2>5.5.2 模糊神经控制方案<BR><BR>许多把模糊逻辑描述与神经网络实现集成于一体的方案已被提了出来,其中最令人鼓舞的是自适应模糊控制系统的研究。这些方案主要分为两个方面,即结构上等价于模糊系统的NN控制以及功能上等价于模糊系统的NN控制。下面讨论一些集成模糊逻辑与神经网络的典型方案,它们用于控制、建模与辨识。 <BR><BR>1. 混合FNN<BR>本方案中,神经网络与模糊集被独立地用于系统,两者之一作为另一者的预处理器。例如,模糊集用作神经网络的监督器(导师)或判据,以便改善学习的收敛性,如图5.34所示。 <BR><BR><BR>图5.34 混合FNN <BR><BR>2. 似神经模糊集(FAM)<BR>在这种方案中,FNN采用由模糊集(而不是非模糊神经元)描述的模糊神经元。在基于知识的系统中,一个条件语句集合,IF-THEN规则集常常用于表示从人类专家那里提取的知识。这种知识通常又与不确定性和模糊项有关,如大、小、高、低、许多、经常、有时等。因此,IF-THEN规则的前项和后项作为模糊集来处理。图5.35提出一种FNN结构。其中FNN把输入参数聚集进模糊子空间,并由加权网络来辨识输入输出关系,这是以简化模糊推理为基础的。在图5.35中,Aip为第i个输入变量xi的隶属函数,i=1,2,...,n;wp为第p条规则的后项。单条规则的结果如下:<BR>(5.32)<BR>所以,可得FNN的输出为:<BR>(5.33) <BR><BR><BR>图5.35 一种神经状模糊集的结构 <BR><BR>另一种似神经模糊系统FAM(模糊联想记忆系统)是由Kosko提出的。FAM是模糊系统 ,它由一简单的似神经方法构造的,而且采用一个两层前馈多联想模糊分类器来存储任意的模糊空间模式对。在自组织模糊控制器中,使用两个动态FAM规则库,即控制规则库和调整规则库。此方法具有改善的控制性能,但它的缺点是使用模糊运算以及采用学习算法。进一步研究应集中开发用于FAM的更有效和合适的学习算法。 <BR><BR>3. 自适应FNN<BR>在FNN的发展过程中,提出了一种由神经网络实现的自适应模糊逻辑控制器。该神经网络可视为从模糊系统到神经网络的一种结构映射。模糊逻辑控制器的决策过程导致一个由三类子网构成的神经模糊网络,分别用于模式识别、模糊推理和控制综合,如图5.36所示。嵌入本结构网络的统一知识结构使得本网络能够为输入信号模式和输出控制作用自适应改变模糊推理方法和隶属函数。Wang也提出用于网络优化的基于梯度法的离线训练规则和在线学习算法。 <BR><BR><BR>图5.36 FNN的三个子网络 <BR><BR>另一种自适应FNN是基于自适应网络的模糊推理系统ANFIS;以人类知识(以模糊IF-THEN规则形式)和约定的输入输出数据对为基础,本系统能够构造一个输入输出映射。ANFIS结构用于在线非线性函数建模、辨识控制系统的非线性分量以及预测混浑时间序列等。 <BR><BR>4. 多层FNN<BR>一种叫做FuNe的专用多层感知器结构被用来建立模糊系统,适于许多实际应用。由监督式学习训练的FuNe可被用于从某个已知的有代表性的输入输出提取模糊规则。此外,通过校正隶属函数可能进行知识库优化。FuNe也是模糊逻辑控制器与神经网络间的一一对应结构映射,它由三个子网组成,即模糊化网络、规则产生网络和模糊决策(解模糊)网络,每个子网又可能是个多层神经网络。图5.37给出一个用于控制与决策的五层模糊神经网络,其中,第1层由输入语言节点组成,第2层为输入项节点,第3层为规则节点,第4层为输出项节点,第5层为输出语言节点。由图5.37可见,每个输出变量包括两个语言节点,左边的节点用作送至本网络的训练数据(期望输出),右边的另一个节点用作由本网络取出的决策信号(实际输出)。第2层和第4层作为隶属函数用于表示各个语言变量的项。此外,第2层的一个节点可为执行简单隶属函数的单节点,也可为执行复杂隶属函数的多层复合节点(一个子神经网)。因此,该模型的总层数可能多于五层。在网络结构和学习能力方面,所提出的这种连接机制模型可能与常规模糊逻辑控制和决策系统大不相同。这种模糊网络可应用机器学习技术通过训练例子来构造,而连接机制结构中被训练用于开发模糊逻辑规则以及求得最优输入输出隶属函数。借助于无师(自组织)学习和有师学习方案的结合,学习收敛速度要比原有的反向传播学习算法快得多。本模型还为标准的前馈多层神经网络提供能为人所理解的意思。 <BR><BR><BR>图5.37 多层FNN例子 <BR><BR>5.6 神经控制系统示例 <BR><BR>神经网络近年来已被广泛用于工业、商业和科技部门,特别用于模式识别、图象处理和信号辨识等领域。尽管神经网络在控制领域成功应用的实例至今仍然比较有限,然而有代表性的关于神经控制的报导有所增加。本节将介绍一个为高速列车运行过程直接模糊神经控制系统的例子。<BR><BR><BR>5.6.1 高速列车运行过程的直接模糊神经控制<BR><BR>随着微型计算机技术的发展,近年来,自动列车运行(ATO)系统已成为全民办铁道自动化的一个研究热点。但是,由于受控过程的复杂,ATO系统通常还不如熟练的操作人员。如所周知,列车运行过程受到许多不确定因素的影响,属于一类复杂动力学过程,难以采用常规辨识方法进行建模。在不同的工作条件下,控制目标和控制策略随过程特性的变化而大不相同,以至传统的基于ATO系统的控制理论很难适应过程要求。所以,以有熟练的司机经验为基础的列车运行过程智能控制系统在过去10年中已被提出,其中包括Yasumobu提出的模糊ATO以及贾等提出的模糊多目标最优控制(FMOC)ATO等。这些智能控制ATO系统的目标在于以模糊集理论为基础,从熟练的司机经验中提取出控制规则,以构造模糊控制器。虽然这些系统已取得一些令人鼓舞的计算机模糊和实际应用结果,包括场试,但是它们存在下列两个共同缺点:(1)模糊语言变量的划分和隶属函数的形状在很大程度上取决于专家经验,因而很难进行在线调整;(2)模糊推理方法不大适应于控制。简而言之,仅仅采用模糊控制方法是很难进一步改进ATO系统性能的。<BR>在本例中,我们把神经网络的学习能力加入模糊系统,建立一个列车运行过程的直接模糊神经控制。本集成系统包含了模糊系统和神经网络的互补特性,改善了常规模糊系统在系统参数变化时的适应能力。 <BR><BR>1. 模糊神经控制器<BR>由于模糊逻辑与神经网络特性上的互补,它们是实现语言知识表示和自适应知识发展这两种人类控制基于特征的理想工具,因而对模糊控制与神经网络熔合的研究已成为近年来一个活跃的研究领域。目前,这些集成方法主要可分为两类:一为分别应用相应的神经网络使它们在结构上等价于模糊器、模糊规则库和解模糊器,直接实现模糊控制系统。这种方法中,原来的模糊系统的知识结构受到学习速度缓慢的约束。另一为通过神经网络,在功能上等价于模糊系统。在我们开发的模糊神经控制器中,考虑采用了第二种集成方法。<BR>(1)控制器结构<BR>模糊系统和神经网络在非线性映射和近似能力方面的相似性为把神经网络的学习能力集成进模糊系统提供了一个机会。因此,我们采用多层前向神经网络来实现模糊系统内的映射。该模糊神经控制器的结构图示于图5.38。为不失一般性,我们考虑具有两个输入变量和一个输出变量的模糊系统。 <BR><BR><BR>图5.38 用于列车运行过程的模糊神经控制器的结构 <BR><BR>正如图5.38所示,本模糊神经系统共有五层。第一层的节点为输入节点(语言节点),它表示列车运行过程的输入语言变量,而且与第二层没有权值关系。第五层为输出层,它执行解模糊过程。在这种情况下,应用域心法(COA),可得系统的解模糊输出为:<BR>(5.34)<BR>第二层由隶属函数节点组成,它们表示输入语言变量的全部模糊集,并完成从精确输入值至模糊值的映射。第三层为中间层,其节点没有明确的意义。第四层的节点表示输出变量(-6至+6)离散域内的点。十分明显,连接 [wij] 和 [wjk]被训练来表示控制规则。在第三层和第四层的节点的实际函数为S函数,如下式所示:f(X) =1/(1+e-x)。采用这个五层结构的连接机制模型,该模糊系统的全过程,从模糊化、模糊推理到解模糊化,都能够通过神经网络的正向计算来执行。<BR>(2)建立模糊关系<BR>模糊系统的模糊关系,即模糊规则库能够通过学习程序用神经网络的权值并行存储。为便于讨论,假定模糊控制器具有两个输入(A和B)以及一个输出C。A、B和C的模糊集被定义为{NB, NM, NS, ZE, PS, PM, PB},它们的隶属函数为三角形的,如图5.39所示。 <BR><BR><BR>图5.39 模糊神经系统的隶属函数 <BR><BR>模糊规则库包含下列六条规则:<BR>R1:IF (A is PB and B is PB) THEN C is PB.<BR>R2:IF (A is PM and B is PB) THEN C is PM.<BR>R3:IF (A is PS and B is PS) THEN C is ZE.<BR>R4:IF (A is PM and B is NB) THEN C is NM.<BR>R5:IF (A is PS and B is NM) THEN C is NS.<BR>R6:IF (A is PS and B is NS) THEN C is ZE. (5.35) <BR>于是,与输入模糊集的隶属函数相对应的第二层输入可表示为:<BR>[mNB(a),mNM(a),...,mPB(a),mNB(b),...,mPM(b),mPB(b)] (5.36)<BR>第四层的输出为输出模糊集的隶属函数,可表示为:<BR>[mC(-6),mC(-5),...,mC(-1),mC(0),mC(1),...,mC(5),mC(6)] (5.37)<BR>对应的训练样本能够表示;例如,对于规则R1 ,存在<BR>输入样本:[0,0,0,0,0,0,1; 0,0,0,0,0,0,1]<BR>输出样本:[0,0,0,0,0,0,0,0,0,0,0.5,1,0.5,0] (5.38)<BR>对于其它规则,其训练样本与式(5.38)相似。<BR>基于上述学习样本,采用误差反向传播学习算法来训练神经网络。经过学习后,所有模糊规则可以网络的权保持。规则的增加与/或更新可由增加和/或更新训练数据集来完成。此外,计算负担较轻。<BR>(3)模糊推理<BR>原有模糊系统的模糊推理可由基于下列两种原理的模糊神经网络的并行计算来实现:<BR>a. 当输入模糊集A和B与Ak和Bk相似时,模糊蕴涵Ak,Bk&reg;Ck被激发,那么,输出模糊集C与Ck相似。<BR>b. 当输入模糊集与样本模糊集不同时,一个模糊蕴涵序列将被激发至不同程度,那么,输出是对应的被激发规则的非线性插值。每条规则的强调程度可描述为:<BR>(5.39)<BR>式中,Xk为训练输入信号,而X为当前输入信号。 <BR><BR>2. 列车运行过程的数学描述<BR>为便于模拟,下面提供一种列车运行过程的近似数学描述,它是以复杂动力学过程的过程划分为基础的。列车运行过程是很复杂的,而且受许多不确定因素的影响;这些因素有铁路条件(弯曲和坡度)、运动速度、环境(气候)条件和工作条件等。很难给出一个列车运行过程的精确数学模型。因此,从工程实际观点出发,采用下列模型:<BR>(5.40)<BR>式中,x 为加速度系数(km/h),通常对电气机车取120,对于高速列车,取250-300;f(n,v)为单式联轴节作用力(knf);n为控制(速度)档级;v为列车移动速度(km/h);P为机车重(knf);G为车的总重量(knf);F(n,v)为联轴节作用力,可由下式计算:<BR>F(n,v)=Fq(n,v)-Bd(n,v)-Bp(r,v)-(P +G)[W0(v)+W1(v)] (5.41) <BR>其中,Fq(n,v)为机车牵引力,Bd(n,v)为机车动力制动力;Bp(n,v)为气动制动力;r为气管的压力减小率;W0(v)为列车的阻力(nf/kn); W1(v)为轨道弯曲、坡度和隧道等引起的附加阻力(nf/kn)。<BR>根据不同工作条件列车运行过程的特征,可把它划分为五个具有不同控制目标的在特性上有区别的子过程,它们是从静止加速子过程(SUPI)、加速子过程(SUP)、恒速子过程(CSP)、调速子过程(SAP)和列车停车子过程(TSP)。对于不同的子过程,力F(n,v)是不同的。因此,对应于不同的子过程我们有五种不同的过程模型,而且需要五个模糊神经控制器,它们包含五种不同的控制规则。 <BR><BR>3. 模拟结果<BR>基于提出的模糊神经控制器的列车运行过程闭环控制系统如图5.40所示。 <BR><BR><BR><BR>图5.40 列车运行过程闭环控制系统框图 <BR><BR>选用“8k”电气机车作为典型的模拟试机(车),它以1000t的牵引力驱动列车运行在几个有代表性的具有不同环境条件的路段。对应不同的子过程,采用五个模糊神经控制器。这五个模糊神经控制器的结构一般上与图5.38的结构相似,只是输入变量的调整及输出变量的论域有所不同。例如,对于SUP子系统,Vp =V0 -V(即给定速度与实际运动速度之差)以及Vs =V0 -Vd(即给定速度与控制等级设计速度之差)被用作网络的输入变量,而牵引速度挡级用作输出变量。训练规则如式(5.35)所示。第三层有八个节点,而且神经网络的初始权值为[-0.5,0.5]范围内的随机值。BP学习算法用于训练控制器,而且学习速率为0.15,允许误差为0.01。<BR><BR>4. 进一步研究课题<BR>本研究基于模糊神经控制器,提出了一种实现自动列车运动操作的新方案,并获得满意的模拟结果。借助于把神经网络结合进模糊系统,本方法提供了一种达到自适应模糊控制的有意义尝试。进一步研究的问题如下:<BR>(1)基于模糊神经网络的复杂动态系统的建模。<BR>(2)研究比本例采用的常规反向传播学习算法更优良更有效的学习算法。<BR>(3)从提取专家经验得到的控制规则变换为训练数据集,例如,一条模糊控制规则可能对应于一组训练样本。<BR><BR>5.7 小结 <BR><BR>本章首先简介人工神经网络及其结构和实例,然后以控制工程师熟悉的语言和图示介绍神经控制器的各种基本结构方案,包括基于神经网络的学习控制器、基于神经网络的直接逆控制器、基于神经网络的自适应控制器、基于神经网络的内模控制器、基于神经网络的预测控制器、基于神经网络的自适应强化控制器、基于小脑模型(CMAC)的控制器、多层神经网络控制器以及分级神经网络控制器等。这些结构方案可用于组成更复杂的神经控制器。本章的重点放在控制用模糊神经网络(FNN)及模糊逻辑与神经网络的集成方案上,后者对于研究自适应模糊控制系统是最令人鼓舞的。这些方案总体上可分为两类,即结构等价模糊系统和功能等价模糊系统。FNN控制的典型方案则包括混合FNN、类神经模糊集(FAM)、自适应FNN以及多层FNN等。本章最后讨论了列车运行过程的直接模糊神经控制应用示例。<BR>自从McCulloch和Pitts在1943年开始研究ANN以来,已经作出许多努力开发各种有效的ANN,用于模式识别、图象和信号处理和监控。然而,由于技术的现实性,尤其是计算机技术和VLSI技术当前水平的局限性,这些努力并非总是如愿以偿的。随着计算机软件和硬件技术的进展,自80年代以来,出现了一股开发ANN的新热潮。十多年已经过去,可是,许多把ANN应用于控制领域的努力仍然收效甚微。其主要困难在VLSI意义上的人工神经网络的设计和制造问题。要解决这一问题,研究人员可能还需要继续走一段很长的路。人工神经网络与模糊逻辑、专家系统、自适应控制,甚至PID控制的集成,有希望为智能控制创造出优良制品。</FONT><BR>
发表于 2005-11-29 19:08 | 显示全部楼层
真是不错阿,<FONT size=2>智能控制是一个很有前途的方向</FONT>
发表于 2006-4-21 19:30 | 显示全部楼层
希望大侠就神经网络的控制设计及应用方面传几本书上来
发表于 2007-4-26 10:08 | 显示全部楼层

能不能把图也补充齐了

能不能把图也补充齐了,这样就可以作为资料参考了,

大家应该多上传一些这样的资料,可以给学习提供全面的基础内容

也可以避免入门者总问一些基础问题。
您需要登录后才可以回帖 登录 | 我要加入

本版积分规则

QQ|小黑屋|Archiver|手机版|联系我们|声振论坛

GMT+8, 2024-11-15 20:05 , Processed in 0.067889 second(s), 18 queries , Gzip On.

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表