时间:2022-12-14 13:20:18
序论:在您撰写神经网络论文时,参考他人的优秀作品可以开阔视野,小编为您整理的7篇范文,希望这些建议能够激发您的创作热情,引导您走向新的创作高度。
EL检测原理与检测系统在文献[1]中有详细的描述。本文采用该文献中的方法对太阳能电池片的EL图像进行采集。图1(a)、(b)、(c)分别表示由CCD采集的一块大小为125bits×125bits的虚焊缺陷图像、微裂缺陷图像和断指缺陷图像。图1(d)是无缺陷太阳能电池组图像,它包含36(6×6)块大小为125bits×125bits的太阳能电池片图像。本文提出融合主成分分析(PCA)改进反向传播神经网络(BPNN)方法和径向基神经网络(RBFNN)方法对太阳能电池缺陷电致发光图像进行处理,主要包括图像采集、PCA特征提取降维、神经网络分类训练、预测输出等部分,如图2所示。
1.1PCA处理输入数据当BPNN和RBFNN的输入是太阳能电池板缺陷图像集时,图像是以向量的形式表示。向量维数太大将不利于网络的计算。我们采用主成分分量分析(PCA)算法[15]来提取该向量的主要特征分量,既不损失重要信息又能减少网络的计算量。PCA是基于协方差矩阵将样本数据投影到一个新的空间中,那么表示该样本数据就只需要该样本数据最大的一个线性无关组的特征值对应的空间坐标即可。将特征值从大到小排列,取较大特征值对应的分量就称为主成分分量。通过这种由高维数据空间向低维数据空间投影的方法,可以将原始的高维数据压缩到低维。假设数据矩阵Xn×p由样本图像组成,n是样本数,p是样本图像的大小。若Xn×p的每一行代表一幅样本图像,则Xn×p的PCA降维矩阵求解步骤如下。
1.2创建BPNN模型和RBFNN模型太阳能电池缺陷种类很多,不同缺陷类型图像具有不同特征。对太阳能电池缺陷图像求其主成分分量作为BPNN的输入,缺陷的分类作为输出,输入层有k个神经元(降维后主成分分量个数),输出层有1个神经元(缺陷的分类向量)。隐层的节点数可以凭经验多次实验确定,也可以设计一个隐含层数目可变的BPNN。通过误差对比,选择在给定对比次数内误差最小所对应的隐含层神经元数目,从而确定BPNN的结构。一般来说,3层BPNN就能以任意的精度逼近任意的连续函数[16]。本论文选择3层BPNN,结构为k-m-1,m为隐含层节点数。为了使网络训练时不发生“过拟合”现象,设计合理BPNN模型的过程是一个不断调整参数对比结果的过程。确定BPNN结构后,就可以对该网络进行训练。训练函数采用Levenberg-Marquardt函数,隐含层神经元传递函数为S型正切函数tansig,输出层神经元函数为纯线性函数purelin。调用格式:net=newff(Y,T,[m,1],{‘tansig’,‘purelin’},‘train-lm’);Y为神经网络的输入矩阵向量(PCA降维后的矩阵向量),T为神经网络的输出矩阵向量。Matlab自带4种主要的函数来设计RBFNN:newrbe,newrb,newgrnn,newpnn。本文用相同的训练样本集和测试样本集创建和测试了这4种网络,其中,用newgrnn创建的网络识别率最高,因此选用广义回归神经网络newgrnn来创建RBFNN:(1)隐含层径向基神经元层数目等于输入样本数,其权值等于输入矩阵向量的转置。(2)输出层线性神经元层,以隐含层神经元的输出作为该层的输入,权值为输出矩阵向量T,无阈值向量。调用格式:net=newgrnn(Y,T,Spread);Y为神经网络的输入矩阵向量(PCA降维后的矩阵向量),T为神经网络的输出矩阵向量,Spread为径向基函数的扩展速度。
1.3太阳能电池缺陷的检测算法(1)数据映射。取每种类型缺陷图像的60%和40%分别作为BPNN和RBFNN的训练样本集和测试样本集。将样本集中每张图片变成矩阵中的一列,形成一个矩阵,采用2.1节中的方法对该矩阵进行PCA降维后的矩阵作为BPNN和RBFNN的输入。将虚焊、微裂、断指和无缺陷4种不同类型图像分别标记为1,2,3,4,作为网络期望输出T。(2)数据归一化。将输入输出矩阵向量归一化为[-1,1],利于神经网络的计算。(3)分别调用2.2节中创建的BPNN和RBFNN,设置网络参数,利用训练样本集先对网络训练,然后将训练好的网络对测试样本集进行仿真,并对仿真结果进行反归一化。(4)最后将仿真预测输出分别和图像1,2,3,4比较,差值的绝对值小于阈值0.5认为预测正确。阈值是根据网络的期望输出选择的,以能正确区分不同缺陷类型为宜。识别率定义为正确识别的数量和样本数的比值。
2实验内容与结果分析
为了验证本文方法的有效性,我们通过CCD图像采集系统采集了1000张太阳能电池板EL图片,包括250张虚焊样本、250张微裂样本、250张断指样本、250张无缺陷样本,大小为125bits×125bits。我们利用图片组成的样本数据集进行了大量的实验,将每种类型缺陷图像的60%和40%分别作为BPNN和RBFNN的训练样本集和测试样本集。算法测试硬件平台为Inteli5750、主频2.66GHz的CPU,4G内存的PC机,编译环境为Mat-labR2012b。由于样本图像数据较大,需采用2.1节中的PCA算法进行降维处理。对样本图像集降维后,得到神经网络的输入矩阵。但是,随着样本数的增加,占有主要信息的主成分维数也在增加。因此,分别采用占有主要信息60%~90%的图像作为BPNN的输入,对应的降维后的主成分维数k为BPNN输入层节点数。由于BPNN的结果每次都不同,所以运行50次,保存识别率最高的网络。图3是在不同样本集数下的PCA-BPNN的最高识别率。其中,样本数n=1000时的PCA-BPNN识别率如表1所示。同时网络参数设置也列在表1中。隐含层中的最佳节点数是采用经验公式所得[17]。从图3和表1中可以看出,当维数降至20维(占主要信息70%)、总样本数为1000(测试样本400)时,4种类型总的最高识别率为93.5%。在相同的训练样本集和测试样本集上,采用与BPNN同样的输入和输出,在不同样本集数下,PCA-RBFNN的最高识别率如图4所示。其中,样本数n=1000时的PCA-RBFNN识别率如表2所示。参数Spread的设置也列在表2中,首先设定Spread为1,然后以10倍的间隔速度递减。从图4和表2中可以看出,样本数为1000(测试样本400)时,PCA维数降到15(占主要信息65%),总的最高识别率为96.25%。两种网络的测试样本集最高识别率对比分别如图5和表3所示。图5(a)、(b)分别为采用PCA-BPNN与PCA-RBFNN方法时测试样本集中的4种缺陷样本图像的期望值与预测值。表3列出了两种方法的具体识别结果。从表3可以看出,两种方法对虚焊缺陷识别率均较高,分别为99%和100%;微裂缺陷识别率较低,分别为89%和92%。这是因为虚焊缺陷面积较大,颜色较深具有显著特点;而微裂缺陷面积较小,与背景对比不强烈,导致错误分类。采用本文提出的BPNN和RBFNN方法处理一幅750×750大小的图像大约分别需要1.8s和0.1s,PCA降维的时间大约为0.02s。将上述两种方法与FCM[18]及ICA[3]方法进行比较,结果如表4所示。可以看出,RBFNN方法具有较高的识别率和较短的计算时间,更适合于在线检测。
3结论
[关键词]软件项目风险管理神经网络粗集
本篇论文的中心是基于粗集的人工神经网络(ANN)技术的高风险识别,这样在制定开发计划中,最大的减少风险发生的概率,形成对高风险的管理。
一、模型结构的建立
本文基于粗集的BP神经网络的风险分析模型,对项目的风险进行评估,为项目进行中的风险管理提供决策支持。在这个模型中主要是粗糙集预处理神经网络系统,即用RS理论对ANN输入端的样本约简,寻找属性间关系,约简掉与决策无关的属性。简化输入信息的表达空间维数,简化ANN结构。本论文在此理论基础上,建立一种风险评估的模型结构。这个模型由三部分组成即:风险辨识单元库、神经网络单元、风险预警单元。
1.风险辨识单元库。由三个部分功能组成:历史数据的输入,属性约简和初始化数据.这里用户需提供历史的项目风险系数。所谓项目风险系数,是在项目评价中根据各种客观定量指标加权推算出的一种评价项目风险程度的客观指标。计算的方法:根据项目完成时间、项目费用和效益投入比三个客观指标,结合项目对各种资源的要求,确定三个指标的权值。项目风险系数可以表述成:r=f(w1,w2,w3,T,T/T0,S/S0,U/U0),R<1;式中:r为风险系数;T、T0分别为实际时间和计划时间;S、S0分别为实际费用和计划费用;U、U0分别为实际效能和预计效能;w1、w2、w3分别是时间、费用和效能的加权系数,而且应满足w1+w2+w3=1的条件。
2.神经网络单元。完成风险辨识单元的输入后,神经网络单元需要先载入经初始化的核心风险因素的历史数据,进行网络中权值的训练,可以得到输入层与隐含层、隐含层与输出层之间的权值和阀值。
(1)选取核心特征数据作为输入,模式对xp=[xp1,xp2,.,xpn]T,dp(网络期望输出)提供给网络。用输入模式xp,连接权系数wij及阈值hj计算各隐含单元的输出。
m
Ypj=1/{1+exp[-(∑wijxpi-hj)]},i=1,2,.,m;j=1,2,Λ,n,
i=1
(2)用隐含层输出ypj,连接权系数wij及阈值h计算输出单元的输出
m
Yp=1/{1+exp[-(∑wjxpi-hj)]},i=1,2,.,m;j=1,2,Λ,n,
i=1
Yp=[y1,y2,……,yn]T
(3)比较已知输出与计算输出,计算下一次的隐含各层和输出层之间新的连接权值及输出神经元阈值。
wj(k+1)=wj(k)+η(k)σpσpj+α[wj(k)-wj(k-1)]
h(k+1)=h(k)+η(k)σp+α[h(k)-h(k-1)]
η(k)=η0(1-t/(T+M))
η0是初始步长;t是学习次数;T是总的迭代次数;M是一个正数,α∈(0,1)是动量系数。σp是一个与偏差有关的值,对输出结点来说;σp=yp(1-yp)(dp-yp);对隐结点来说,因其输出无法比较,所以经过反向推算;σpj=ypj(1-ypj)(ypwj)
(4)用σpj、xpj、wij和h计算下一次的输入层和隐含层之间新的连接权值及隐含神经元阈值。wij(k+1)=wij(k)+η(t)σpjxpi+α[wij(k)-wij(k-1)]
3.风险预警单元
根据风险评价系数的取值,可以将项目的风险状况分为若干个区间。本文提出的划分方法是按照5个区间来划分的:
r<0.2项目的风险很低,损失发生的概率或者额度很小;
0.2≤r<0.4项目的风险较低,但仍存在一定风险;
0.4≤r<0.6项目的风险处于中等水平,有出现重大损失的可能;
0.6≤r<0.8项目的风险较大,必须加强风险管理,采取避险措施;
0.8≤r<1项目的风险极大,重大损失出现的概率很高,建议重新考虑对于项目的投资决策。
总之,有许多因素影响着项目风险的各个对象,我们使用了用户评级的方式,从风险评估单元中获得评价系数五个等级。给出各风险指标的评价系数,衡量相关风险的大小。系数越低,项目风险越低;反之,系数越高,项目风险越高。
二、实证:以软件开发风险因素为主要依据
这里我们从影响项目风险诸多因素中,经项目风险系数计算,作出决策表,利用粗集约简,抽取出最核心的特征属性(中间大量复杂的计算过程省略)。总共抽取出六个主要的指标(PersonnelManagement/Training,Schedule,ProductControl,Safety,ProjectOrganization,Communication)确定了6个输入神经元,根据需求网络隐含层神经元选为13个,一个取值在0到1的输出三层神经元的BP网络结构。将前十个季度的指标数据作为训练样本数据,对这些训练样本进行数值化和归一化处理,给定学习率η=0.0001,动量因子α=0.01,非线性函数参数β=1.05,误差闭值ε=0.01,经过多次迭代学习后训练次数N=1800网络趋于收敛,以确定神经网络的权值。最后将后二个季度的指标数据作为测试数据,输入到训练好的神经网络中,利用神经网络系统进行识别和分类,以判断软件是否会发生危机。实验结果表明,使用神经网络方法进行风险预警工作是有效的,运用神经网络方法对后二个季度的指标数据进行处理和计算,最后神经网络的实际输出值为r=0.57和r=0.77,该软件开发风险处于中等和较大状态,与用专家效绩评价方法评价出的结果基本吻合。
参考文献:
[1]王国胤“Rough:集理论与知识获取”[M].西安交通大学出版社,2001
在水利及土木工程中经常会遇到地形面,地形面是典型的空间自由曲面,地形面在给出时,往往只给出一些反映地形、地貌特征的离散点,而无法给出描述地形面的曲面方程。然而有时需要对地形面进行描述,或者当给出的地形面的点不完整时,需要插补出合理的点。以往大多用最小二乘法或其它曲面拟合方法如三次参数样条曲面、Bezier曲面或非均匀有理B样条曲面等,这些拟合方法的缺点是:型值点一旦给定,就不能更改,否则必须重新构造表达函数;在构造曲线曲率变化较大或型值点奇异时,容易产生畸变,有时需要人为干预;此外,这些方法对数据格式都有要求。
神经网络技术借用基于人类智能(如学习和自适应)的模型、模糊技术方法,利用人类的模糊思想来求解问题,在许多领域优于传统技术。用神经网络进行地形面构造,只要测量有限个点(可以是无序的),不需要其它更多的地形面信息和曲面知识,当地形面复杂或者是测量数据不完整时,用神经网络方法更具优势,而且还可以自动处理型值点奇异情况。
本文提出用BP神经网络结合模拟退火算法进行地形面的曲面构造。
2模型与算法的选择
为了对地形面进行曲面构造,首先要有一些用于神经网络训练的初始样本点,对所建立的神经网络进行学习训练,学习训练的本质就是通过改变网络神经元之间的连接权值,使网络能将样本集的内涵以联结权矩阵的方式存储起来,从而具有完成某些特殊任务的能力。权值的改变依据是样本点训练时产生的实际输出和期望输出间的误差,按一定方式来调整网络权值,使误差逐渐减少,当误差降到给定的范围内,就可认为学习结束,学习结束后,神经网络模型就可用于地形面的构造。
BP网是一种单向传播的多层前向网络。网络除输入输出节点外,还有一层或多层的隐层节点,同层节点中没有任何耦合。输入信号从输入层节点依次传过各隐层节点,然后传到输出节点,每一层节点的输出只影响下一层节点的输出。其节点单元传递函数通常为Sigmoid型。BP算法使神经网络学习中一种广泛采用的学习算法,具有简单、有效、易于实现等优点。但因为BP算法是一种非线性优化方法,因此有可能会陷入局部极小点,无法得到预期结果,为解决BP算法的这一缺点,本文将模拟退火算法结合到BP算法中。
模拟退火算法是神经网络学习中另一种被广泛采用的一种学习算法。它的基本出发点就是金属的退火过程和一般组合优化问题之间的相似性。在金属热加工过程中,要想使固体金属达到低能态的晶格,需要将金属升温熔化,使其达到高能态,然后逐步降温,使其凝固。若在凝固点附近,温度降速足够慢,则金属一定可以形成最低能态。对优化问题来说,它也有类似的过程,它的解空间中的每一个点都代表一个解,每个解都有自己的目标函数,优化实际上就是在解空间中寻找目标函数使其达到最小或最大解。
(如果将网络的训练看成是让网络寻找最低能量状态的过程,取网络的目标函数为它的能量函数,再定义一个初值较大的数为人工温度T。同时,在网络的这个训练过程中,依据网络的能量和温度来决定联结权的调整量(称为步长)。这种做法与金属的退火过程非常相似,所以被称为模拟退火算法。)
模拟退火算法用于神经网络训练的基本思想是,神经网络的连接权值W可看作物体体系内的微观状态,网络实际输出和期望输出的误差e可看作物体的内能,对网络训练的目的就是找到恰当的状态W使其内能e最小,因此设置一个参数T来类比退火温度,然后在温度T下计算当前神经网络的e与上次训练的e的差e,按概率exp(-e/T)来接受训练权值,减小温度T,这样重复多次,只要T下降足够慢,且T0,则网络一定会稳定在最小的状态。
模拟退火算法虽然可以达到全局最优,但需要较长时间,BP算法采用梯度下降方式使收敛速度相对较快。为取长补短,我们将两种算法结合起来,采用BP算法的梯度快速下降方式,同时利用模拟退火算法技术按概率随机接受一个不成功的训练结果,使梯度快速下降过程产生一些随机噪声扰动,从而既保证了网络训练的快速度下降,又保证了训练结果的最优性。
3网络结构与学习算法
3.1网络结构
如何选择网络的隐层数和节点数,还没有确切的方法和理论,通常凭经验和实验选取。本文采用的BP网络结构如图1所示,输入层两个节点,分别输入点的x坐标和y坐标;两层隐层,每层10个节点,输出层一个节点,输出点的z坐标。
3.2学习算法
学习算法的具体过程如下:
其中Out_node为输出神经元集合.
4计算实例
为了检验本文算法的有效性,我们用本文算法对黄河下游河滩地形面进行曲面构造,地形面数据按截面给出,我们用奇数截面上的点为学习样本,偶数截面上的点用于检验本算法的精度.表1给出了测量值z1与本文算法计算结果z2,z2为本算法经过大约3500次迭代的结果.由这些数据可以看出,本文算法计算出的值与测量值的误差大约在0.02左右.完全可以满足实际工程要求的精度.
5结语
用神经网络进行地形面的曲面构造,不必求出曲面的方程,只需知道有限个点即可,而且这些点可以是散乱点.与传统方法相比,神经网络方法具有很强的灵活性.
本文将BP算法和模拟退火算法结合起来,解决了BP算法容易陷入局部极小的致命缺点.但仍然没有解决BP算法收敛速度慢的缺点.
NEURALNETWORKMETHODTOCONSTRUCTTERRAINSURFACE
LiuXue-mei1,2,DondWen-sheng1,2,ZhangShu-sheng1
(1NorthweasternPolytechnicalUniversity,ShanxiXiAn710072)
(2NorthChinaInstituteofWaterConservancyandHydroelectricPower,HenanZhengzhou450045)
Abstract
Thispaperpresentsanartificialneuralnetworkapproachtosolvetheproblemofterrainsurfaceconstruction.ThismethodtakesadvantageoftheglobalminimumpropertyofSimulatedProcedureonthebasisofBPalgorithm,thuscanjumpoutofthelocalminimumandconvergetotheglobalminimum..ThismethodwerevalidatedbysimulatingbottomlandterrainofYellowRiver.
Keywords:terrainsurface;freeformsurface;neuralnetwork;BPalgorithm;simulatedannealing
参考文献
[1]王铠,张彩明.重建自由曲面的神经网络算法[J].计算机辅助设计与图形学学报,1998,10(3):193-199
1.1BP神经网络简介神经网络由大量简单的单元构成的非线性系统,具有非线性映射能力,不需要精确的数学模型,擅长从输入输出数据中学习有用知识[7]。神经元是神经网络基本单元。神经元模型如图1所示。由连接权、加法器和非线性激活函数这3种元素组成。1986年,Rumelhart及其研究小组在Nature杂志上发表误差反向传播(errorback-propagation)算法[8],并将该算法用于神经网络的研究,使之成为迄今为止最著名的多层神经网络学习算法———BP算法[9]。由该算法训练的网络,称为BP神经网络。BP神经网络是一种正向的、各层相互连接的网络。输入信号首先经过输入层传递给各隐含层节点,经过激发函数,将隐含层节点的输出传递到输出节点,最后经过再经过激发函数后才给出输出结果,若输出层的输出和期望输出之间的误差达不到要求,则转入反方向传播,将误差信号沿原来的连接通路返回,通过修个神经网络各层的权值,使过程的输出和神经网络的输出之间的误差信号达到期望值为止[10]。
1.2电池SOC的定义动力电池的剩余电量,是指电池在当前时刻,达到放电截止电压前可以使用的电量。目前,国内外普遍采用荷电状态来表征电池的剩余容量[11]。电池的荷电状态(SOC)是电池的剩余电量与电池的额定电量的比值。
1.3影响电池SOC的因素动力电池是一个非线性系统,其中电池的荷电状态受到很多种因素的影响,主要包括电池的充/放电倍率、自放电、环境温度以及电池的工作状态等因素。(1)电池的充/放电倍率电池的放电电流的大小,会影响电池的容量。在其他条件相同的情况下,电池的放电容量会随着放电倍率的增加而降低[12]。(2)自放电自放电又称荷电保持能力,指在一定的条件下,当电池处于开路状态时,电池对电量的储存能力。电池在自放电的作用下,SOC值会随着存储时间的增加而减小。(3)温度首先,锂离子电池正常工作的温度有一定的要求。动力电池的使用环境温度发生变化时,电池的可用容量也会随之发生变化。在温度较低时,电池活性较低,电池可用容量降低;当温度升高时,电池活性增强,可用容量也随之增多。因此,在预估电池的荷电状态时,需要考虑到电池的温度的影响。
2神经网络SOC估计器设计
2.1实验数据的获取本研究的实验数据是在ADVISOR2002汽车仿真软件上仿真得到的。ADVISOR(AdvancedVehicleSim-ulator,高级车辆仿真器)是由美国可再生能源实验室,在Matlab/Simulink软件环境下开发的高级车辆仿真软件[13]。该软件的界面友好、源代码完全开放,目前已经在世界范围内广泛使用。ADVISOR采用了前向、后向相结合的混合仿真方法。后向仿真方法是在假设车辆能满足道路循环的请求行驶轨迹(包括汽车行驶速度、道路坡度和汽车动态质量)的前提下,计算汽车中各个部件性能的仿真方法,前向仿真是根据驾驶员行为调节部件,使得车辆各部件跟随路面循环工况[14]。本研究在ADVISOR软件搭建了某国产电动汽车的仿真平台。整车的主要技术参数如表1所示[15-16]。模拟行驶程序使用的测试路程是ECE工况、UDDS工况和HWFET工况混合行驶工况,其速度与时间关系曲线如图2所示。ECE工况、UDDS工况和HWFET工况均被广泛应用于电动汽车性能测试。其中ECE工况为欧洲经济委员会汽车法规规定的汽车测试循环工况。ECE工况是用来测试车辆在城市低速道路下车辆的循环工况。其循环时间为195s,车辆行驶的路程为0.99km,最高车速为50km/h。UDDS工况是美国环境保护署制订的城市道路循环工况,用来测试车辆在城市道路下行驶的各种性能的循环工况。其循环时间为1367s,行驶路程为11.99km,最高车速为91.25km/h。HW-FET工况为美国环境保护署制订的汽车在高速公路上的循环工况,用来测试汽车在高速道路上车辆行驶的循环工况,其循环时间为767s,行驶路程为1.51km,最高车速为96.4km/h。在搭建的仿真平台上,本研究进行了仿真,其中电动汽车使用的电池为锂电池。虚拟电动汽车共行驶了2329s,行驶的距离为14.49km。对电动汽车的电池的充放电电流、电池温度和电池的SOC进行采集,得到结果如图3~5所示。
2.2数据预处理根据前文的分析,本研究的神经网络模型训练数据选择如下。本研究选择动力电池的充放电电流和电池的温度作为动力电池神经网络的输入,电池的SOC作为神经网络的输出。在对神经网络训练之前,对训练数据进行归一化操作。归一化操作可以避免各个因子之间的量级差异,加快BP神经网络训练的收敛,减少计算难度。对数据进行如下操作。
2.3动力电池SOC神经网络的训练SOC估计是根据动力电池的电流、温度的数值得到电池的SOC数值。使用神经网络设计估计器的目的是为了能够逼近函数。本研究使用了BP神经网络模型来逼近动力电池的电流、温度和SOC之间的关系,其中BP神经网络的隐含层选择tansig函数。学习算法使用基于数值最优化理论的Levenberg-Marquardt算法作为神经网络的学习算法。
3实验验证及结果分析
为了验证模型的有效性,本研究采用了另外3种工况混合的行驶工况的实验数据作为测试样本数据来验证本研究得到的神经网络模型。这3种工况分别是:普锐斯工况(Prius工况,该种工况用来测试丰田普锐斯混合动力汽车的行驶工况),CYC_Nuremberg_R36工况(该种工况用来测试德国纽伦堡市36路公共汽车线路工况)和CYC_US06工况(该种工况用来考察测试车辆在高速情况下的行驶状况)。以上3种工况基本上能够模拟出汽车在城市中行驶的加速、减速、低速和高速行驶的各种工况,测试混合工况如图6所示。本研究对得到的测试数据同样进行归一化处理。模型的输入为电池的电流和温度,模型的输出为SOC值。最后,得到的电池SOC的实际值和经过神经网络得到的SOC估计值如图7所示。通过求神经网络模型的输出值和真实值之间的误差值,来评价本研究的神经网络模型的精度。其计算公式如下式所示。得到的神经网模型的估计值与动力电池SOC的真实值之间的误差如图8所示。通过图8可以看出,神经网络估计器的估计值与电池SOC的真实值之间绝对误差的最大值为4%左右,符合动力电池对SOC预测的精度要求。
4结束语
[关键词]MATLABBP神经网络预测模型数据归一化
一、引言
自20世纪70年代初以来的30多年里,世界黄金价格出现了令人瞠目的剧烈变动。20世纪70年代初,每盎司黄金价格仅为30多美元。80年代初,黄金暴涨到每盎司近700美元。本世纪初,黄金价格处于每盎司270美元左右,此后逐年攀升,到2006年5月12日达到了26年高点,每盎司730美元,此后又暴跌,仅一个月时间内就下跌了约160美元,跌幅高达21.9%。最近两年,黄金价格一度冲高到每盎司900多美元。黄金价格起伏如此之大,本文根据国际黄金价格的影响因素,通过BP神经网络预测模型来预测长期黄金价格。
二、影响因素
刘曙光和胡再勇证实将观察期延长为1972年~2006年时,则影响黄金价格的主要因素扩展至包含道琼斯指数、美国消费者价格指数、美元名义有效汇率、美国联邦基金利率和世界黄金储备5个因素。本文利用此观点,根据1972年~2006年各因素的值来建立神经网络预测模型。
三、模型构建
1.模型选择:BP网络具有理论上能逼近任意非线性函数的能力,将输入模式映射到输出模式,只需用已知的模式训练网络,通过学习,网络就有了这种映射能力。2.样本数据归一化:在训练前,对数据进行归一化处理,把输入向量和输出向量的取值范围都归一到[0,1]。
3.BP网络设计:采用单隐层的BP网络进行预测,由于输入样本为5维的输入向量,因此输入层一共有5个神经元,中间层取20个神经元,输出层一个神经元(即黄金价格),网络为5*20*1的结构。中间层的传递函数为S型正切函数,输出层为S型对数函数。中间层的神经元个数很难确定,测试时分别对12,15,20个数进行测试,寻找误差最小的。
4.网络训练:训练次数epochs5000,训练目标goal0.001
对30个样本数据进行训练,经过1818次的训练,目标误差达到要求,如图2所示:神经元个数为20个时误差最小,此时网络的仿真结果如图3所示,预测精度80%以上,效果满意。
四、结论
在对1976年~2006年的影响国际黄金价格的五种因素的数据进行归一化处理后,用MATLAB建立的BP神经网络预测模型进行预测,达到了很好的效果。
国际黄金的长期价格受到许多因素的影响,本文只是对道琼斯工业指数等影响因素诸如分析,来预测长期的国际金价。还有其他因素,如国际油价,局部政治因素等,如果考虑进去,预测精度会进一步提高。
参考文献:
1.1概率性神经网络(PNN)
地震属性和测井数据的关系,并不一定是线性的,利用概率性神经网络的方法弥补井和地震间的非线性关系。概率性神经网络(PNN)类似于多维属性空间上的克里金,采用了局部化的作用函数,具有最佳逼近特性,且没有局部极小值。每个输出点把新点处的新属性组与已知的培训例子中的属性进行比较来确定的,得到的预测值是培训目标值的加权组合。概率神经网络方法具有高度的容错性,即使某个井旁道地震参数或某个网络连接有缺陷,也可以通过联想得到全部或大部分信息。因此,用概率神经网络建立地震属性和测井特征属性之间的映射关系可靠性高。概率神经网络方法还具有动态适应性,当地质岩性类别变化或地震参数修改时,网络可自动适应新的变量,调整权系数,直到收敛。对于受岩性控制的储层,概率神经网络是描述其地震属性参数与岩性参数关系的有效方法。概率神经网络是由多测井和多地震属性参数组成的网络。首先,将由测井曲线和井旁地震道提取的特征参数按照地质岩性参数分成若干类;然后,通过非线性数学模型的神经网络学习系统,由输入矢量产生输出矢量,并把这个输出矢量与目标矢量进行平方意义下的误差对比;再以共轭迭代梯度下降法作权的调整,以减少输出矢量与目标矢量的差异,直到两者没有差异训练才结束。对于给定的培训数据,PNN程序假设测井值和每一输出端的新测井值为线性组合,新数据样点值用属性值X表示可写。这里σ是PNN使用的高斯权重函数的关键参数,来控制高斯函数的宽度。式(2)和式(3)是概率神经网络预测的基本原理,训练神经网络的过程实际上就是求解最优平滑因子的过程。
1.2交互验证增加属性类似于多项式拟合增加高阶项,增加多项式高阶将会使预测误差总是变小,但属性的个数绝不是越多越好。随着属性个数的增多,对预测的结果的影响越来越小,会明显削弱未参与神经网络训练的那些点的预测能力,甚至造成预测误差反而增大,这种现象称为过度匹配。而且参与运算的属性过多,也会影响到运算速度,因此通过计算验证误差来确定最佳的属性个数,防止过度匹配,该过程就称为交叉验证。通过蕴藏井误差分析的方法,验证出现拟合过度的情况。求取递归系数时,选取一口井作为验证井,不参与运算。利用拟合出的关系,得到验证井的误差值。以此类推,得到每一口井的误差值,以参与运算井的平均误差作为参考标准,来检验属性组合个数是否出现拟合过度的情况。
2应用实例分析
研究区内油气富集区主要为岩性控制,目的层段厚度70m左右,地震剖面上大约50ms,含油砂体主要发育在wellA,wellC附近,向周围变化较快。针对目标层T41-T43之间进行井曲线交汇和岩性统计。wellA,wellC主要是含油砂岩,wellB、D、F主要是泥质砂岩、煤层,岩性差别很大。但从速度、密度曲线交汇图版(图1)来看,曲线交汇统计重叠较大,很难区分含油砂岩和泥质砂岩。wellA、wellB对应层位岩性明显不同,在地震剖面也体现同样的反射特征。因此基于测井和地震模型为基础的常规叠后波阻抗反演很难准确识别这套含油砂岩。而更能反映岩性特征的GR曲线,则对这套砂体较为敏感,明显地区分出了这套含油砂岩(如图3所示)。因此我们采用本文介绍的神经网络技术,在常规波阻抗反演的基础上,预测GR曲线特征体。经过分析,把GR值65~75区间岩性赋值为含油砂岩,从而把这套储层有效的区分出来,在此基础上进一步计算砂岩厚度(图4)。
3结论
[关键词]反射认知创造神经网络人工智能
一、生物神经网络系统
生物神经系统是以神经元为基本单位,神经元的外部形态各异,但基本功能相同,在处于静息状态时(无刺激传导),神经细胞膜处于极化状态,膜内的电压低于膜外电压,当膜的某处受到的刺激足够强时,刺激处会在极短的时间内出现去极化、反极化(膜内的电压高于膜外电压)、复极化的过程,当刺激部位处于反极化状态时,邻近未受刺激的部位仍处于极化状态,两着之间就会形成局部电流,这个局部电流又会刺激没有去极化的细胞膜使之去极化等等,这样不断的重复这一过程,将动作电位传播开去,一直到神经末梢。
神经元与神经元之间的信息传递是通过突触相联系的,前一个神经元的轴突末梢作用于下一个神经元的胞体、树突或轴突等处组成突触。不同神经元的轴突末梢可以释放不同的化学递质,这些递质在与后膜受体结合时,有的能引起后膜去极化,当去极化足够大时就形成了动作电位;也有的能引起后膜极化增强,即超极化,阻碍动作电位的形成,能释放这种递质的神经元被称为抑制神经元。此外,有的神经元之间可以直接通过突触间隙直接进行电位传递,称为电突触。还有的因树突膜上电压门控式钠通道很少,树突上的兴奋或抑制活动是以电紧张性形式扩布的,这种扩布是具有衰减性的。
图1
一个神经元可以通过轴突作用于成千上万的神经元,也可以通过树突从成千上万的神经元接受信息,当多个突触作用在神经元上面时,有的能引起去极化,有的能引起超极化,神经元的冲动,即能否产生动作电位,取决于全部突触的去极化与超级化作用之后,膜的电位的总和以及自身的阈值。
神经纤维的电传导速度因神经元的种类、形态、髓鞘有无等因素的不同而存在很大差异,大致从0.3m/s到100m/s不等。在神经元与神经元之间的信息交换速度也因突触种类或神经递质的不同而存在着不同的突触延搁,突触传递信息的功能有快有慢,快突触传递以毫秒为单位计算,主要控制一些即时的反应;慢突触传递可长达以秒为单位来进行,甚至以小时,日为单位计算,它主要和人的学习,记忆以及精神病的产生有关系。2000年诺贝尔生理学或医学奖授予了瑞典哥德堡大学77岁的阿维·卡尔松、美国洛克菲勒大学74岁的保罗·格林加德以及出生于奥地利的美国哥伦比亚大学70岁的埃里克·坎德尔,以表彰他们发现了慢突触传递这样一种“神经细胞间的信号转导形式”。本次获奖者的主要贡献在于揭示“慢突触传递”,在此之前,“快突触传递”已经得过诺贝尔奖。此外,使用频繁的突触联系会变得更紧密,即突触的特点之一是用进废退,高频刺激突触前神经元后,在突触后神经元上纪录到的电位会增大,而且会维持相当长的时间。所以可以得出一条由若干不定种类的神经元排列构成的信息传导链对信息的传导速度会存在很大的弹性空间,这一点对神经系统认知事件有着非常重要的意义。
神经系统按功能可大致分为传入神经(感觉神经)、中间神经(脑:延脑、脑桥、小脑、中脑、间脑、大脑脊髓)与传出神经(运动神经)三类。
生物要适应外界环境的变化,就必须能够感受到这种变化,才能做出反应。生物的感受器多种多样,有的是单单感觉神经元的神经末梢;有的是感受器细胞;还有的感受器除了感受细胞外还增加了附属装置,且附属装置还很复杂,形成特殊的感觉器官。无论感受器的复杂程度如何,它在整个神经系统中都起着信息采集的作用,它将外界物理的或化学的动态信号反应在感觉神经细胞膜的电位变化上,膜上的电位变化可形成动作电位向远端传导。
中间神经在系统中起着计算及信息传导的作用,通常感觉神经传来的动作电位经过若干个中间神经元的计算响应后在传递到传出神经形成反射弧,但也有的反射弧仅由传入神经元与传出神经元直接组成,如敲击股四头肌引起的膝反射。传出神经可分为躯体神经与内脏神经两类,它们都最终连接着效应器,只是内脏神经需要通过一个神经节来连接效应器,最后由效应器调空肌体器官做出相应的反应。
二、生物神经网络的建立
1994年,一种被称为Netrin-1、将轴突吸引到分泌它的神经细胞的可扩散蛋白被发现,此后人们发现,同一轴突引导分子既可吸引、也可排斥前来的轴突。其中,环状AMP(也称cAMP)、环状GMP(也称cGMP)和钙离子,都可能是从参与将发育中的神经元引导到其目标上的受体中转导信号的第二种信使。新的实验表明,正是cAMP/cGMP的比例决定着Netrin-1是起一种吸引信号的作用还是起一种排斥信号的作用,这些环状核苷通过控制轴突生长锥中的L-型钙通道来起作用。
目前已经发现大量对神经轴突生长具有导向作用的分子,这些分子可以分为两大类:一类分子固着在细胞膜表面或细胞外基质中,影响局部的神经纤维生长,这类因子包括ephrin,MAG(myelin-associatedglycoprotein),Nogo等;另一类是分泌性分子,能扩散一定的距离并形成浓度梯度起作用,如netrin,slit,semaphorin家族的大多数成员,及各种神经营养因子等。神经轴突的前端有生长锥(growthcone)的结构起到对环境信号的探测作用。神经生长锥表面存在各种导向因子的受体,它们特异地识别环境中各种因子,并向细胞内传递吸引(attractive)或是排斥(repulsive)的信号,从而通过调节生长锥内的细胞骨架的重组来引导神经纤维沿特定路线生长(我国科学家袁小兵等研究人员发现,在脊髓神经元上,神经细胞内RHOA酶和CDC酶直接传递外界方向信号,引导神经生长方向,同时这两种酶相互作用,对生长方向进行细致的调节)。未成熟神经细胞柔弱的轴突在这些信号的引导下,试探地穿行于正处于发育阶段、仍是一片纷乱的大脑之中,最终抵达适当的目的地。一旦轴突的末端找到了其正确的栖息地,它就开始与周围神经元建立尽可能广泛的突触联系,以便传导信息。
脊椎动物出生后早期发育中的一个特征是,神经键(或神经连接)的消除。最初,一个神经肌肉连接被多个轴突支配,然后所有轴突都退出,只剩下一个,对相互竞争的神经元来说,决定胜负的是它们的相对活性。为了能准确的连接到目的地,单个或多个神经元会沿导向分子所确定的大致方向上生长出若干条神经纤维,其中总会有能正确连接到目的地的神经纤维,所建立的若干神经链路在刺激信号的作用下,正确的信息传递会使链接会变的更加稳固,反之则慢慢萎缩分离。打个比方讲:两个城市间原本没有路,如果要修的话会先派人去探索出若干条路,最后去修筑被优选出来的路,而其他的则会被遗弃。
三、神经网络的基本工作原理
1、反射
自然界中,事物的发展、能量的转化、信息的传递等等各种的自然现象都包含着因果关系,只要时间没有停滞,这种关系将广泛存在,从“因”到“果”,贯穿着事物的发展过程,当过程长且复杂时我们称之为“事件”,反之则称之为“触发”。
生物个体在与外界环境或是个体自身进行物质或信息交换时,也存在着这种现象,在这里我们称之为“反射”。
反射是最基本的神经活动,现行的说法是将反射分为两种,无条件反射和条件反射,其中,无条件反射是动物和人生下来就具有的,即遗传下来的对外部生活条件特有的稳定的反应方式,在心理发展的早期阶段,这种反应方式提供最基本的生存技能,也就是本能,如:食物反射、防御反射、定向反射,还有一些可能是在人类进化过程中,曾经有一定生物适应意义的无条件反射,如:巴宾斯基反射、抓握反射、惊跳反射(又叫摩罗反射)、游泳反射、行走反射等,此外,还有其他一些无条件反射,如眨眼反射、瞳孔反射、吞咽反射、打嗝、喷嚏等等。
条件反射是后天训练出来的,著名科学家巴甫洛夫就曾对条件反射的形成、消退、自然恢复、泛化、分化以及各种抑制现象进行过相当细致、系统的实验研究,。
无论是条件反射还是无条件反射,从主观上都可以看作是一种因果作用关系,即都存在着触发条件,都会导致某一结果的产生,所以无条件反射其实也属于条件反射范畴。只有在成因上,无条件反射是根据遗传信息形成的神经网络结构,而条件反射是后天在先前的网络基础上,依据外界环境继续发展完善的神经网络结构。两者之间是继承和发展的关系,但从这两个阶段所形成的神经网络功能来看,对外界的刺激都具备输入、传递、输出这一处理过程即反射过程,所以从某种意义上讲,也可以把无条件反射归类到条件反射范畴中去,或者说条件反射等同于反射。
神经系统中的条件反射具有三个要素:输入、传递、输出。其中的每一个要素既可以用单个神经元表示,也可以用一个神经群落来表示。当用少数几个神经元表示时,对应的是生物个体对局部刺激的反应,当扩展到神经群落时,对应的就可能就是对某一激发事件的处理方法了。
反射中的输入,最能使我们联想到传入神经元(感觉神经元),但在这里,它可以指单个的感觉神经元,也可以指一种感官(眼睛中的视神经群落、耳中的听觉神经中枢、皮肤中与各类感受器连接的神经群落等等),甚至可以是大脑中某一区域内形成某一表象或是概念的神经群落。反射中的输出同样可以指传出神经元(即脊髓前角或脑干的运动神经元),也可以指大脑中某一区域内形成某一概念或是表象的神经群落。反射中的中间传递过程是信息的加工处理的过程,可以由单个神经元、神经链路或是神经网络来承担,甚至可以直接由输入与输出的对应载体来分担。这样生物神经系统中的反射弧只是它的一个子项罢了,条件反射在主观上也对应着我们常说的“产生、经过与结果”即因果关系。
2、认知
有一个低等生物海兔的记忆试验:海兔本身具有被触摸(水管部分)后的鳃缩反射,但连续十几次的刺激后,鳃缩反应就逐渐减慢.经过研究发现,海兔的习惯化是由于神经递质发生变化所致.进一步的研究发现这种变化是突触中的感觉神经元的Ca离子门关闭,导致递质的释放量减少所致.上述试验说明简单的记忆与神经递质和突触有关.又如大鼠的大脑皮质切除试验:用迷宫训练大鼠,如果大鼠学会并记住顺利走出迷宫的道路后,切除它的大脑皮质,记忆就会消退.不论切除的是大脑皮质的哪一部分,总是切除的多,记忆消退的多;切除的少,记忆消退的就少。
首先,认知通常强调的是结果,是神经网络定型后的结果。神经网络的定型过程就是认知的建立过程,也就是生物个体的学习过程,它同时表现了出生物的记忆过程。定型好的神经网络对触发信息的处理过程即反射过程,就是记忆的提取过程,也正是通过这一过程反映出了认知的存在。
生物个体对客观事物的认知可以解释为:客观事物在主观意识中形成了表象,并且该表象与一系列的活动(生理的或心理的)相联系。换句话说,某一客观事物的信息如果经过大脑处理能够引发出一系列的动作(这是一种反射现象,符合前面对反射的定义),我们就可以说对这一事物已经认知了。
行为主义与符号主义中对认知建立过程中所显现出的记忆现象都有很详细的类别划分,其中每一种记忆类别都仅与一种认知的建立模式相对应。所以,与其用记忆类别来划分还不如用认知类别来划分更为合理,在这里由于篇幅所限,我仅将认知简单概括为以下三种类别:物体认知、事件认知以及两种认知的衍生产物抽象事物认知。
a、物体认知
感受外界客观环境最简单的办法是通过感官直接去“接触”物质对象,并通过大脑处理,并最终导致一个或一系列的结果,这种因果过程就是对客观物体的认知。如:看到一个苹果,我们产生了拿的动作,同时也可以产生许多其他的动作如激活色彩感觉中枢、激活味觉中枢等等,当可以有这些动作产生时,就完成了对苹果的认知。
下面我们将详细讲解神经网络对物体认知的描述。
一个输入集合I(触觉、视觉等的感应细胞构成的集合或是处于某一层次上的神经元集合)对之内两个不同区域(A、B)的刺激做出相应Y与X两种不同反应的神经处理过程,如图2。
图2的a、b、c为三种AB可能存在的输入情况。图2a中A、B分别对应Y、X,神经链路没有重叠,刺激A时得到Y的输出,刺激B时得到X的输出,结果不会出现问题,请注意:带有方向的黑线只是代表逻辑上的链路,在实际中,链路与链路之间有质的区别,这里只做简单的等价说明,用数量表示质量。图2b中A、B间有了交叉,在处理过程中,当A受到刺激会产生Y的输出,同时会有三条逻辑链路去刺激X,但做为X的全部决定因素,这三条相比从B到X余下的空闲联络,只占很小的一部分,它们还不足以激活X,所以分别刺激A、B仍然会得到正确的输出。对于X这种在某一层次上的输出神经元来说,是否能被激活,主要取决于所有处于不同状态的输入链路的能量对比,在这里能量被量化为逻辑链路的数量,这样每个神经元对值的判断则等价为判断处于激活状态的逻辑链路数是否过半。此类神经链路就是兴奋类传导神经网络,单纯采用此类神经链路的系统只需要根据相应刺激感受区域是否有刺激发生,就可以得出正确的输出结果,但是在图2c中,刺激区域A包含着B的情况下,如果刺激B区会有正确输出X,然而如果刺激A区则会出错,Y与X会同时有效,这时我们就需要一种链路来阻止这种错误的发生,这就是抑制类神经链路,如图2c中的虚线箭头所示,抑制类逻辑链路只起到冲减、抵消兴奋类逻辑链路数量的作用,使得X在冲减后的兴奋链路合计数小于阀值,从而达到唯一正确输出Y得目的。
在图2中列举的神经网络认知模式中,虽然只涉及到了输入与输出,但在两者之间已经包含了计算的成分,或是说承担了传递计算的功能,此外不难发现:能够对某一物体认知,必须要首先区分开其他物体,尤其是符合图2c中的情况,物体间的差异正好可以满足这一需求。这样,即使是从同一个感官传来的信息,也能做到很好的区分。
当认知的对象较为复杂时(如苹果),对象包含有各种各样的属性,其中的每一种属性的响应过程,在局部都遵循着反射的定义。当在某一时刻,与苹果相关的各种属性的神经子网络被大部分激活时,苹果的表象就成了焦点。更确切的讲是,感官捕捉的信息在传递的过程中,经过了代表各种属性的神经子网络,一些属性因条件不满足而停止传递,最后由可以通过的(即被确认的属性)神经子网络继续向后传递,最后再引发一系列的动作,其中反射可以指局部的传递(单个属性的确认),也可以指整个传递过程(看到苹果后,可以去拿可以去想等等)。
苹果在人脑中形成的表象,其实就是指感官根据苹果实物产生的电信号所能经过的神经链路,神经链路与神经网络的关系相当于行走路径与公路网的关系。此外其他的神经区域输出的电信号如果在传递过程中也能引发出与前面提到的“苹果神经链路”相同或相似动作或是功能的话,也可以说是形成了苹果的表象,这种现象可以使我们认知客观世界不存在的事物或个体自身从未接触过的事物。
b、事件认知
任何事物在一段时间内发生了变动,在这里都可以被称之为事件。因果关系同样也具备事件的属性,如果能深入分析一下各种事件的过程,基本上都能找到因果关系的影子。在前面对物体的认知中,我们知道了神经网络认知物体是以因果关系的方式建立的网络链路,为了不引起混淆,下面以因果关系为认知对象的,我们用事件来代替,对事件的认知过程,近似于对物体的认知过程,相当于把事件等同于物体,由于事件具有时间性,所以神经网络就必须能够处理时间问题。
神经元的形状各异,轴突有长有短,且对信息的加工时间与传递速度也各不相同,这样对同一起点不同的传递路径,信息的传递速度可能不同。还以图2为例,现在假设每一个箭头除了代表一个神经元连接外,还代表一个单位传递时间,当首先刺激A区后并在第二个单位时间内刺激B区,将两次触发过程当作一个事件,导致一个输出Y;同法当先刺激B区,然后在刺激A区时会有另一个输出X,如图3
根据这种通过神经链路上神经元个数进行延时的方法,任何处于时间片段上的信息都可以被处理。我们再举个更加复杂的例子,单输入神经元网络对摩尔斯电码的识别与重现。
假设输入神经元为A,按严格的尔斯电码规则来刺激该神经元,最后由神经网络得出字符序列,如图4
当A收到刺激信号时,将信号广播给不同的识别群体,图4中只给出了其中的一个网络群体,给出的这个群体只能认识字符“b”即电码“—…”。为了简化说明,图4中舍弃了每个神经元的其他输入输出链路以及相关的抑制链路,所以图中的每一个指向神经元的箭头均存在着“与”的逻辑运算关系,在这里它们不表示逻辑数量。
由图4可以看出,先收到的信号经过较多的传递神经元进行延时,再连同后面收到的信号一起同时传递到结果输出上,这样处于时间片段上的信息就可以被当作是一个整体来进行处理。粗虚线上半部分为输入识别部分,下半部分为信息重现部分,仔细观察就会发现,两部分的神经链路并不是互成镜像,输入为前端延时,依次为:1、3、5、7、8、9,输出为后端延时,依次为:9、7、5、3、2、1,所以认识事物与应用事物是由两套不同的神经网络来控制完成的。图4中的两条倾斜细虚线是一个虚拟的标示线,从某种意义上讲这里是事物的表象层,中间本应该是更加复杂的表象处理网络,在这里只简单的假设性的给出了表象输出与输入。
c、抽象概括与抽象描述
对事物(事件、物体)的认知,使我们得以在大脑中建立出与客观世界相对应的表象,作为记录事物表象的神经链路网上的每一个分支与合并都可能是事物在不同层次上的一种“特征的概括与描述”(参见图3左图)。
神经网络在认知新的事物时,输入信息总是尽可能的使用已存在的网络链路进行传递处理,当处理不足以产生正确的结果时才在信息的中断处搭建新的网络连接。在局部,如果已存在的网络链路可以被使用,那么这部分网络结构通常是一种共性的表达,当这种表达随着同类认知的增加而逐渐完善时,就可以作为一种属性的表象,这在主观上是一种抽象概括的过程。
例如,对苹果的认知,“苹果”本身是一个概括出来的词汇,它不具体指哪一个苹果,但在认知若干个具体苹果的过程中,与各个苹果相对应的神经链路的共用部分被逐渐加强,这部分神经网络就可以说是“苹果”这一概念的表象区域。此外,神经网络结构不光能实现对有形的抽象概括,也可以对无形的加以抽象概括,例如“水果”的表象,这一表象的形成可以说是用若干不同种类的水果培养出来的,也可以说是由“苹果”、“梨”等等表象的神经链路的共用部分完善而成的,后一种方式可以理解为抽象概括可以建立在另一种抽象概念之上,即对无形的事物也可以做抽象概括。换个角度讲,这些抽象出来的表象本身就是一种有形的物质,它是由若干神经元搭建起来的网络系统,是客观存在的东西,这样的话就与第一种方式相一致了。
语言是生物间交流的工具,是生物为了更好的适应周围的环境而进化产生的,在这里它包含有声音、文字、动作、行为以及低等生物的化学接触等等内容。就拿我们人类来说,每一个发音、每一个文字符号都可以说是对应着一种表象,这个表象可以是抽象出来的也可以是具体事物产生的。语言是通过触发来进行工作,当然也可以说是一种反射或是因果现象。无论是说还是听,也不论是写还是看,对于说或者是写这种输出性质的处理,可以解释为某个表象被激活时,它又被作为输入信号沿着该表象至发音或是运动器官间的语言神经链路传递电信号,直至发音或是运动器官做出相应的动作。听与看也是如此,感官接收到信息后传递直至激活某一个表象区域(请参见图4)。语言与表象之间广泛存在着对等映射关系,它可以使我们能够直接去运用语言来进行思维,即便是表象与输入输出没有语言神经链路对应关系的,如果需要我们也会临时的建立起语言神经链路,如本文中说的图几图几、这个那个等等,或者用相关的有语言链路的表象通过塑造、阐述、刻画、定位等等方式来体现或是建立该表象,这种建立神经链路的过程往往体现出不同种类的记忆模式。
生物的记忆过程与机械的存储过程原理基本相同,都是通过改变载体的性状来表达的,只是生物是通过神经网络的响应过程来表达或再现记忆的内容,就是说该神经网络的连接结构就反映着记忆的内容,所以生物的记忆过程就是建立特定连接方式的神经网络的过程,而提取过程就是激活这部分神经网络的过程。一旦载有相关记忆内容的神经网络结构被确定时,能量只能体现在信息的提取与再现上,当然维持这种结构也需要一点能量,不然神经元就饿死了:)注意:这里强调的是“过程”。
生物的认知过程对外表现为学习过程,对内表现为神经网络的建立及使用过程,在学习过程中往往会同时伴随着反馈过程(内反馈或外反馈),生物从外界获得信息,传递处理后再作用给外界,并同时获取作用后新的信息,周而复始的运做,这就是外反馈过程。外反馈过程是依靠外界因素帮助或是引导或是促使生物个体建立起能与环境相协调运做的神经网络系统,主观上我们称之为“教育”。内反馈主要体现在我们的思维活动上,通常外界事物在大脑中存在着对应的表象,被外反馈完善了的事物表象之间同样可以建立起互动联系,比如讲一个事物的表象被激活(输入),引发其他的表象也被激活(输出),这些被激活的表象同样也可以作为输入去激活先前的或是其他的表象,然后周而复始的运做,使得信息得以在脑内进行反复的处理。内反馈过程实际上就是一种“自学”的过程,但它的激发源头必定是与外界有关,并且最终要作用于外界,所以说内外反馈往往是兼而有之的。
在认知过程中随着内反馈的素材(表象)不断增多,生物个体渐渐能够认知自身与外界间的互动关系,自我意识也就随之产生,同时我们用以进行思维的素材及其运作方式,如概念,词汇以及由这些材料所带来的情感因素及组织方式等等,绝大部分都来源于前人或者是借用他人的经验,生物个体对这些经验素材的获取,或是由于接触的几率的不同,或是由于认同的程度的高低,个体间总会存在着差异,这样就产生了我们不同的个性特征。
3、创造
生物在与周围环境发生相互作用时,不可避免的会对周围的环境造成一定的影响,无论是主动的还是被动的,这些对环境的影响最终都是为了促使生物以更好的适应周围的环境。遵循优胜劣汰的法则,好的影响将会被保留继承下去,如搭窝、建巢、获取食物等等,而坏的影响会增加生物生存的风险。
神经网络在认知事物后,事物的表象往往不是特定对应着某一个具体事物,而是对应着在一个模糊的范围内所含阔的一类事物。例如,我们认知的苹果,泛指各种各样的苹果,甚至还包括那些嫁接出来的长的象其他水果的苹果等等。在我们依据苹果的表象勾勒出一个具体的苹果时,这个苹果将肯定不会与客观世界中的任何一个苹果相同,因为没有两样东西是绝对相同的。产生一个客观世界不存在的事物,就是创造,其过程就是创造的过程。
生物神经网络中事物的表象往往穿插交错在一起,它们以链路最省的方式构成。任何神经链路上的合并都可以说是事物的某一特征在某一层次上的概括,所以表象可以以不同的内涵层次来拆分成各种各样的属性单元(元素),而任何神经链路上的分支都可以说是事物的某一特征在某一层次上的副本,使得这些属性单元也能够隶属于别的表象或是说用于构建(表达)别的表象,当若干种属性单元在某一时刻都处于激活状态时,就等同于一种表象被激活,无论这个表象是否对应着客观世界中的事物,如果没有对应关系那就是一个较高形式的创造过程。
创造的几种主要的表达形式:联想、推理、顿悟
a、联想
当一个事物的表象被激活时,也就是说该表象所包含的若干属性单元(元素)同时有效时,我们的注意力焦点就集中在这个表象上,如果对该表象的处理(内或外反馈)使的表象被否决时,也就是说由于一些属性单元的失效(或被抑制,或处于高阻),导致该表象无法成立的时候,剩余的属性单元或许可以构成另一种事物的表象,或许还需要结合那些被激活了的新的属性(或是由外界事物具有的新的属性所激活,或是因降低了对一些属性的抑制所导致的激活)。
b、推理
联想是一种去激活与事物表象相关联的其他表象的过程,主观上是一种横向扩展的过程,那么纵向过程就是由于一个或若干个事物表象被激活,从而导致另一个表象也被激活的过程,即推理过程,其中的任何一个表象的确立(激活)都会通过反馈过程加以验证。推理与联想在神经网络结构上十分的相似,功能上也基本相同,只是在主观认识上,联想更强调相关性或是相似性,而推理则强调的是次序性或层次性。
c、顿悟
当我们思考一件事情时,或设计一件东西的时候,常常会遇到百思不得其解的情况发生,但有时,在某个偶然的事件影响下,我们会突然明白或能够解决这些问题,这就是顿悟现象。
事物的表象是由若干个神经网络属性单元所构成的,我们说的“问题”在大脑中也是一种表象,是一种经反馈过程没有验证通过的特殊的表象,这个表象的属性单元可能包括具体的事物表象、抽象的事物表象、逻辑关系、公理、定律等等内容,但这些属性同时有效时,问题的表象并不能通过内外反馈的验证。作为一个急切需要解决的“问题”,“问题”的表象被反复的激活(深思熟虑反复思考),在一个偶然机会,一个别的事件表象被激活,或是因为此事件的某个属性单元弥补了“问题”表象的一个重要的空缺;或是因为此事件“问题”表象中的某个关键的属性单元被抑制失效,“问题”表象得以完善并能够通过反馈验证,这就是顿悟。
四、神经网络的相关问题
人在成长过程中,他的学习过程就是构建相应神经网络结构的过程,随着认知程度的增加,网络结构也日趋复杂,对刺激的反应过程也随之复杂化,当复杂到无法预测时,主观上就会认为反应过程是自发产生的,这是人的一种错觉。
幼年,人脑神经网络的建立过程需要大量的空闲神经元,基本雏形确定后,剩余的空闲神经元会损失大半,这样才能够给网络的发展腾出空间。余留下来的空闲神经元或是成为新建神经链路中的一部分而被确定下来;或是被用于临时搭建的某些链路;或是作为备用存在于网络的空隙当中。
青少年,神经网络属于高速建立阶段,这个阶段的神经网络可塑性极强,主要是因为针对事物的认知,即是以机械性记忆为主,对事物认知的量及内容是抽象逻辑思维建立的基础及倾向,随着量的增加抽象概括的能力会逐渐增强。
中青年,事物的认知量及逻辑思维能力的配比达到了最佳程度,不光有一套较好的能与外界交互的神经网络系统,而且神经网络还保留有发展的余地,即还保留有一定的可塑性。
中年,无论是抽象事物还是具体事物,认知量已基本确定,网络的结构已日趋复杂化,在一些局部,需要修改的或是新建的神经链路对空闲神经元的需求也已日趋紧张,使得我们的认知速度逐渐减慢。
老年,在许多的神经网络区域,空闲的神经元已开始满足不了认知的需求,另外因为无法认知新的事物,对外界的反应能力也开始下降,连带的相关神经区域得不到激活,神经链路的健壮性开始下降,以至于一些神经链路解体,伴随的就是认知量的下降,即健忘等等现象,并且成为一种恶性循环发展下去……。
五、后记
为了能清楚的阐述它的运行机制,同时也是为了验证这套理论,根据前面所提到的神经元的结构功能及组网方式,我通过计算机软件设计了虚拟的神经网络系统,2000年软件完成了调试,并得到了很好实验结果。
参考文献
1《现代科学育儿答疑》(0-3岁)人民教育出版社1999年第1版
2陈守良等,《人类生物学》,北京大学出版社,2001年12月
3陈阅增等(1997).《普通生物学》.北京:高等教育出版社
4苏珊·格林菲尔德,《人脑之谜》杨雄里等译
5陈宜张《分子神经生物学》人民军医出版社1997年2月
6伊·普里戈金、伊·斯唐热著、曾庆宏、沈小峰译《从混沌到有序》,上海译文出版社1987年版。