复杂性中的思维物质-第16章
按键盘上方向键 ← 或 → 可快速上下翻页,按键盘上的 Enter 键可回到本书目录页,按键盘上方向键 ↑ 可回到本页顶部!
————未阅读完?加入书签已便下次继续阅读!
模型的方法论由计算方法的代价和收益来决定。一个试图在各个方面都是现实的人脑模型就需要过于高昂的分析和建构。它可能永远难以满足所希望的目的,因此是不实际的。科学家在致力于为大脑组织的一个个水平建立模型时,对有关的下一层次进行简化,就将更为成功。另一方面,模型必须是富有成果的,以能揭示大脑组织的根本性的复杂特征。
按照复杂系统探究方式,大脑功能的建模应该采用适当的描述大脑活动的动力学轨迹的态空间和相图。法国数学家和哲学家勒奈·笛卡尔已经在(欧几里得)几何框架中描述了感觉、手臂运动和大脑的合作(图4.1)。
今天,神经网络是用矢量空间和神经矩阵来进行几何描述的。神经元的电化学输入与输出之间有权重联结。在小脑的图式区(图4。4)中,神经矩阵的权重Wij允许网络通过矩阵相乘从输入矢量计算出输出矢量。
图4.4的例子涉及3×4的神经元矩阵。神经生理学建模要求巨大的灵活性,因为神经网络可能是相当复杂的。但是,联结矩阵可以有效地将高维态空间变换到其他的不同维数。在数学上,这些高维的变换可能引起几何问题,使用初等形式分析几何难以求解。在这种情况下,就需要广义的张量网络理论,以管理复杂的坐标。从历史上看,令人惊奇的是,从欧几里得几何转变到更一般的拓扑空间和度量空间,不仅仅可以在相对论中表述外部世界,同时还可以表述神经系统的内部特征。
用笛卡尔早期的方法,让我们涉及一种基本的感知原动坐标,它由矢量或张量变换来代表。动物如何抓住一个被它的感官所感知的对象(图4.5a)?在一个简化的模型中,两眼的位置最先在一个感知数据的二维空间进行编码。这个态空间可以形象表示为一个二维拓扑图。从感知态空间的某一点发出一个脉冲到相应的原动态空间的一个点,原动态空间也是由一个二维拓扑图来代表的。原动态空间的一个点为相应的手臂位置进行编码(图4.5b)。
眼前庭反射是另一个感知原动坐标的例子。生物藉此神经排列,通过与头部运动方向相反的眼球的短弛像运动,从而把影像稳定在视网膜上。在此神经系统中,涉及两种神经结构,它们可以由中枢神经系统固有的不同的坐标系来代表。首先,我们必须分析耳前庭器的半圆通道,每一边有3个通道,可由三维坐标系来代表。其次,每一个眼球都有6条外眼肌,这相应于六维坐标系。因此,眼前庭反射感知原动坐标,用几何方法由三维(共变)向量的张量变换来描述。这种数学框架可以用来计算任何的由一定前庭输入造成的眼肌激活。
在神经元和神经网络水平上,人工单元的网络用来模拟和考察大脑组织。这些单元被假定在0和1之间变化。每一单元接收来自其他单元的信号,其间通过突触以不同的权重联结起来。接受和发送表示是值的有序集合,输出单元是适当激活了的。数学上,这种程序可以解释为作为证据的某种输入对于作为功能值的输出的一个映射。功能规则是由权重的排列所决定的,它们依赖于神经网络的拓扑。
在大脑中,神经元常常构成了作为输入层的群体(图4.6)。这些细胞的轴突发送到第2层神经元。在这第2层细胞的轴突又可以投射到第3层细胞群体上,如此等等。在所有输入单元中的自发激活的集合体是作为矢量的输入刺激的网络表示。这种输入矢量及其活化层次向上面的中间层次传播。结果是一组活化层次,它们由输入层的输入矢量,以及从输入单元的分枝末端到中间层那些关联权重所决定。这种中间层的活化矢量向上传播到最高的单元层,在3层网络的情况下产生了一个输出矢量。这个输出矢量由中间层的活化矢量和处于中间单元到输出单元的分枝的终端的关联权重决定。
一个仅仅具有输入层和输出层的两层网络是一种简单的刺激…反应图式,具有可观测的、可测量的输入和输出。在3层网络的情况下,中间层的单元及其权重常常难以直接测量,而只是被假设为某种处于黑箱中的隐藏机制。因此,它们被称为隐含单元。
当然,真实的神经系统显示出多得多的单元和层次。例如,对于人来说,大脑皮层的结构包含了至少6层各异的神经元。顺便指出,图4.4所示的小脑的神经矩阵的输入对于输出的映射,可以等价地由具有输入和输出的两层神经网来描述。3层神经网络等价于顺序相连的两个神经矩阵。但是这种多层的网络不可能推广到整个大脑和神经系统,因为在实际大脑中细胞群体往往在给定层次中表现出广泛的细胞与细胞的关联。这需要在某些不同的模型中加以考虑。
按照复杂系统探究方式,特定层的神经元可以被解释为态空间轴线,代表了该层可能活性状态。状态的发展,即其动力学由轨迹来说明,轨迹可由该特定网络的某种学习过程所引起。
例如,感知可以用神经网络的矢量处理来解释。最初,来自外部世界的对于输入神经元的刺激样品(例如,作用于眼睛的电磁光信号、颜色,或者作用于耳朵的声波),它们在神经网络中被加工,产生出某种输出矢量,代表了例如外部世界的视觉或嗅觉图像。但是神经网络必须学会在大量的输入信号中区别和识别出正确的形式、颜色、声音等等。
学习程序只不过是一种对于众多极重的调节,以获得所希望的输出矢量(例如感知)。学习程序可以由数学算法来加以模拟,这是人工智能研究中的重要课题(参见5.3节)。它们在每一神经层次上(也是由矢量来代表)产生出权重构型。在任一给定的时间,突触值的完整集定义了一个权重空间,在每一轴线上的点说明了每一特定权重的大小。一般来说,学习意味着使得最适解(感知、思想等等)和不适解之间的错误和差异最小化。因此,学习过程可以形象表示为权重空间的轨迹,轨迹从初始的随机集合位置出发,到达最终的最小误差位置(图4.7a)。这种建模的关键意味着,可以通过算法程序使某个函数具体化来获得网络中的权重。业已假定,任何可表示的世界都可以通过权重的构型在网络中得到表示。
图4.7a示意了学习过程中突触权重空间的轨迹。这个空间进行了简化,只有3个权重,代表了3层网络中突触的所有权重值的组合(图4.6)。图4.7示意了相应的活化矢量空间,其轴线是3层网络中的隐含单元(图4.6)。
权重空间和活化空间是类似的空间,因为代表类似事物类似矢量由位置近似来反映。权重构型把类似的事物集合在一起,考虑了权重空间可能对于事物之间的细微差异的敏感性。因此,在活化空间,我们可以区分出原型矢量,它们代表了具有细微差异的类似事物,细微的差异由其到原型矢量的距离来度量。在观察和行为的宏观水平上,这些原型矢量可以代表特定的范畴,如树木、植物、果实、人物等等,它们都有或多或少的相似性。在复杂系统动力学的框架中,原型矢量可以被解释为点吸引子,把态空间划分为若干个区域。
类似的原动行为(诸如抓拿、行走等等)用原动态空间的类似轨迹来表示。正如我们看见的,学习意味着权重依据某种算法程序重新构型。关键性问题在于:成千上万的细胞和突触如何知道它们在什么时候应该变化其状态而不需要小妖的指引?
唐纳德·霍布在他的著名的《行为组织》(1943)一书中提出,学习必须被理解为一种复杂脑模型中的自组织。如同生命有机体的进化,组织“妖”的信念可以去掉,用复杂系统探究方式的自组织程序来代替。历史上,这是首次清楚地提出了生理学的突触变化的学习规则。霍布在关于复杂的脑模型中使用了“联结主义”一词。他引入了突触概念,后来被称为“霍布突触”。如果两个神经元同时发放,两个神经元之间的联结就得到加强。
当细胞A的轴突充分靠近细胞B使之激发,并可以反复地或持续地向其发放,在细胞之一或两者之中就发生了某种生长过程或代谢变化,使得A向B的发放效率也就增加了。
“霍布规则”在1949年还只能是一种假设的实体。今天,它的神经生理学上的存在得到了经验确证。霍布规则并非一种精确的数学陈述。我们在后面还将看到可能霍布类型的联结主义学习规则。霍布规则的一种简单的数学表述要求,神经元A映射到神经元B的权重WBA的变化△WBA正比于A的发放速率vA和B的发放速率vB的平均值,即△WBA=εUAUB,其中ε是常数。
在霍布类型的规则主张的图式中,强化神经元的前提倾向于是“毋需[外部〕教师”。在此意义上,它是一种自组织的方法,使得神经元发放与成群的刺激模式越来越好地关联起来。霍布意识到,大脑运用相互联结的神经元的整体模式来表示某种事物。他明确地运用了“细胞集合体”一词,这对于现代神经科学是关键性的。激活的细胞集合体可以相应于复杂的感觉或思维。哲学上,霍布的细胞集合体的思想使我们想起休谟的联想概念,但他的联想只具有脑心理学上的基础而没有脑生理学的基础。
霍布的生理学概念是如何溶进现代的神经网络复杂系统之中的呢?这个联想网络的基本概念要求,一个输入矢量与输出矢量用某种变换而“联结起来”。在数学上,两种矢量类似性可以由其内积来度量,内积即由两个矢量相乘,其中的元素乘以元素,然后将这些乘积加起来。在几何上,内积是正比于矢量之间角度的余弦。在两个矢量总相等的情况下,角度为零,这意味着相似性是完全等同的。
因此,所贮存的原型矢量(例如典型树的原型图)与输入矢量(例如对于特定树的感觉)之间的相似性,就可以在联想网络中由其内积来计算。原型矢量假定贮存于联结网络中的输入和输出的权重矩阵之中。图4.8a示意的网络中,有代表着输入元素的水平输入线、垂直输出线和联结的权重(这里采用二进制,空心圆圈为零,实心圆圈为1)。
如果一般地,输入矢量(xj)与输出矢量(yj)通过线性变换从yj=EWijXj联结起来,其中Wij是贮存的权重矢量,于是我们就获得了一种简单的线性联想子。这种联想网络,能够对于代表某种范畴例子的矢量进行分类,这种范畴是由所贮存的原型矢量实现的。对于动物的生存,这个任务实际上是关键性的。在现实中,种种或多或少的类似的感觉(例如怀着敌意的动物)必须进行鉴别并归于某一范畴。
某一种联想网络可以进行矢量完善或矢量校正。所谓的自动联想网络可以产生一种输出,使之在仅仅给出贮存矢量的一部分作为输入时,尽量地接近预先贮存的矢量。在现实中有噪声的(例如一个人的图像),必须根据所贮存的图像来加以完善。一个霍布类型的规则,可以通过加强在神经元之间的相关活性程度的关联权重来完成这一任务。
一种增加这样的复杂网络能力的方法是,对于输出单元引入非线性的阈值。线性的联想网络(例如图4.8a)具有前向反馈拓扑,信息从输入单元流向输出单元。霍布类型的学习程序认为,神经单元的局域的相互作用通过自组织而收敛到正确的总输出。网络中的循环信息意味着某种反馈构造。在图4。8b中,每一单元都接受从外部的输入,同时也接受网络中内部单元的反馈。权重由水平线和垂直线的交接点来表示。
显然,图4.8b模型的复杂系统是一种非线性的反馈网络,它允许范围广泛的可能的动力学。约翰·霍普菲尔德讨论了一个著名的例子(1982)。他的非线性反馈网络的类型具有收敛解的动力学。对于它们的兴趣不仅仅是由于对大脑的建模,而且是由于(正如我们将在关于人工智能的第6章见到的)发展出新的网络技术。对于我们的复杂系统探究方式,值得注意的是,霍普菲尔德是一位物理学家,他把运用于自旋玻璃体物理学的数学方程运用到了神经网络上。
铁磁体的动力学是大家熟知的一个热平衡态的保守自组织的例子。在伊辛模型中,铁磁体由自旋体点阵构成,每一方向都可以是向上(↑)或向下(↓)的。每一自旋体都可以与其近邻发生相互作用。在最低能量状态中,所有的自旋体都以相同方向排列。在高温下,自族体的方向是随机的,因为热能使得涨落大于相互作用能。如果减低温度,自旋体就变得按照相同方向排列。显然,自族体的行为类似于磁体(参见2.4节)。在动力学上,它表现为寻求作为某个吸引子状态的最近的局域能量极小值(图4.9a)。但是,只有所有的相互作用是吸引作用,才有在相同方向上的所有自旋体点的单个能量极小值。在吸引相互作用和排斥相互作用混合的情形下,复杂系统如自旋玻璃体可以具有许多局域能量极小值。
霍普菲尔德提出,神经系统的功能是在态空间发展起来的一些局域稳定点。态空间的其他的点流向作为系统吸引子的稳定点。由于对稳定点的偏离的消失,这种动力学是一种自校正程序。另一方面,稳定点适当地将一个并不完善的始态矢量丢失的部分弥补起来。因此,这种动力学可以用来完善有噪声的输入。
霍普菲尔德的模型是相当简单的,包括有阈值的逻辑单元。加和的突触输入并将此加和与阈值进行比较。如果此加和处于阈值或阈值之上,就产生出1,否则就产生出0。除了自联结之外,神经元相互联结时,就认为该网络恢复了。数学上,相应的联结矩阵的主对角线为零。霍普菲尔德提出,运用霍布类型的学习规则来构建联结矩阵元。复杂系统的演化如自旋玻璃体伊辛模型遵循非线性的反馈动力学。能量差异项逐渐减少,直到它到达某一个——可能是局域的——极小值。
字符特征识别问题是人们熟悉的一个简单应用。此复杂的网络由2维格子的相互作用的布尔变量来代表。一个模式(例如字母A)可以被联想到格子中,其中黑点代表激活态变量(其值为1),空点代表其值为零的变量。这里假定,字母作为所希望的动力系统状态被联想到吸引子(不动点)。我们可以想像,通过多次看见正确的字母,人的大脑中贮存了正确的字母形状。如果某个不完善的、部分受损的字母显示给该系统,它就应该能够重新构造出正确的形状——这是以前已经学会的(图4.9b)。
因此,模式识别就意味着自组织的模式演化。这种过程指向某些吸引子,作为所希望的系统状态。我们回忆一下,一个吸引子就是从一定条件出发,系统将向其演化的一种状态。吸引盆由起始条件来定义,起始条件推动着在吸引子方向的系统的轨迹。正如我们在前面的章节中已看见的,一个吸引子可以是包含不动点的或稳定态的唯一状态,如同在霍普菲尔德网络和自旋玻璃体系统的例子。但是,一个周期相继的状态(“极限环”)或几种形式的混沌吸引子(在耗散系统中)也是可能的。因此,霍普菲尔德网络对于以复杂系统的吸引子来建立神经状态的模型,仅仅是初级的、简化的方式。
霍普菲尔德注意了自旋玻璃体中的局域能