8.
流形在实际应用中起重要作用的还有两个方面:
(1)研究几何形体的性质(我们暂且不谈这个),
(2)它和代数结构的结合形成的李群(Lie
group)和李代数(Lie
algebra)。
当我们研究的对象是变换本身的时候,它们构成的空间是有其特殊性的,比如所有子空间投影形成了Grassmann流形,所有的可逆线性算子,或者仿射算子,也形成各自的流形。对他们的最重要操作是变换的结合,而不是加法数乘,因此,它们上面定义的更合适的代数结构应该是群和不是线性空间。而群和微分流形的结合体——李群则成为它们最合适的描述体系——而其切空间则构成了一种加强的线性空间:李代数,用于描述其局部变化特性。
李代数和李群的关系是非常漂亮的。它把变换的微变化转换成了线性空间的代数运算,使得移植传统的基于线性空间的模型和算法到李空间变得可能。而且李代数中的矩阵比起变换本身的矩阵甚至更能反映变换的特性。几何变换的李代数矩阵的谱结构就能非常方便地用于分析变换的几何特性。
格致人生格致人生
[转载]机器学习中的代数结构的建立
by:格致人生Learning是一个融会多种数学于一体的领域。说起与此有关的数学学科,我们可能会迅速联想到线性代数以及建立在向量空间基础上的统计模型——事实上,主流的论文中确实在很大程度上基于它们。
R^n (n-维实向量空间) 是我们在paper中见到最多的空间,它确实非常重要和实用,但是,仅仅依靠它来描述我们的世界并不足够。事实上,数学家们给我们提供了丰富得多的工具。
“空间”(space),这是一个很有意思的名词,几乎出现在所有的数学分支的基础定义之中。归纳起来,所谓空间就是指一个集合以及在上面定义的某种数学结构。关于这个数学结构的定义或者公理,就成为这个数学分支的基础,一切由此而展开。
还是从我们最熟悉的空间——R^n 说起吧。大家平常使用这个空间的时候,除了线性运算,其实还用到了别的数学结构,包括度量结构和内积结构。
·
第一,它是一个拓扑空间(Topological
space)。
——一而且从拓扑学的角度看,具有非常优良的性质:Normal (implying
Hausdorff and Regular),Locally
Compact, Paracompact, with Countable
basis, Simply connected (implying connected and path
connected),Metrizable.
·
第二,它是一个度量空间(Metric
space)。
——一我们可以计算上面任意两点的距离。
·
第三,它是一个有限维向量空间(Finite
dimensional space)。
——一我们可以对里面的元素进行代数运算(加法和数乘),我们还可以赋予它一组有限的基,从而可以用有限维坐标表达每个元素。
·
第四,基于度量结构和线性运算结构,可以建立起分析(Analysis)体系。
——一我们可以对连续函数进行微分,积分,建立和求解微分方程,以及进行傅立叶变换和小波分析。
·
第五,它是一个希尔伯特空间(也就是完备的内积空间)(Hilbert
space, Complete inner product space)。
———它有一套很方便计算的内积(inner
product)结构——这个空间的度量结构其实就是从其内积结构诱导出来。更重要的,它是完备的(Complete)——代表任何一个柯西序列(Cauchy
sequence)都有极限——很多人有意无意中其实用到了这个特性,不过习惯性地认为是理所当然了。· 第六,它上面的线性映射构成的算子空间仍旧是有限维的
——一个非常重要的好处就是,所有的线性映射都可以用矩阵唯一表示。特别的,因为它是有限维完备空间,它的泛函空间和它本身是同构的,也是R^n。因而,它们的谱结构,也就可以通过矩阵的特征值和特征向量获得。
· 第七,它是一个测度空间——可以计算子集的大小(面积/体积)。
——一正因为此,我们才可能在上面建立概率分布(distribution)——这是我们接触的绝大多数连续统计模型的基础。
我们可以看到,这是一个非常完美的空间,为我们的应用在数学上提供了一切的方便,在上面,我们可以理所当然地认为它具有我们希望的各种良好性质,而无须特别的证明;我们可以直接使用它的各种运算结构,而不需要从头建立;而且很多本来不一样的概念在这里变成等价的了,我们因此不再需要辨明它们的区别。
以此为界......
Learning的主要工作分成两个大的范畴:
一、建立一种表达形式,让它处于上面讨论的R^n空间里面。
二、获得了有限维向量表达后,建立各种代数算法或者统计模型进行分析和处理。
这里只讨论第一个范畴。先看看,目前用得比较广泛的一些方法:1. 直接基于原始数据建立表达。
我们关心的最终目标是一个个现实世界中的对象:一幅图片,一段语音,一篇文章,一条交易记录,等等。这些东西大部分本身没有附着一个数值向量的。为了构造 一个向量表达,我们可以把传感器中记录的数值,或者别的什么方式收集的数值数据按照一定的顺序罗列出来,就形成一个向量了。如果有n个数字,就认为它们在R^n里面。
不过,这在数学上有一点小问题,在大部分情况下,根据数据产生的物理原理,这些向量的值域并不能充满整个空间。比如图像的像素值一般是正值,而且在一个有界闭集之中。这带来的问题是,对它们进行线性运算很可能得到的结果会溢出正常的范围——在大部分paper中,可能只是采用某些heuristics的手段进行简单处理,或者根本不管,很少见到在数学上对此进行深入探讨的——不过如果能解决实际问题,这也是无可厚非的,毕竟不是所有的工作都需要像纯数学那样追求严谨。
2. 量化(quantization)。
这是在处理连续信号时被广泛采用的方式。只是习以为常,一般不提名字而已。比如一个空间信号(Vision中的image)或者时间信号,它们的domain中的值是不可数无限大的(uncountably
infinite),不要说表示为有限维向量,即使表达为无限序列也是不可能的。在这种情况下,一般在有限域内,按照一定顺序每隔一定距离取一个点来代表其周围的点,从而形成有限维的表达。这就是信号在时域或空域的量化。这样做不可避免要丢失信息。但是,由于小邻域内信号的高度相关,信息丢失的程度往往并不显著。而且,从理论上说,这相当于在频域中的低通过率。对于有限能量的连续信号,不可能在无限高的频域中依然保持足够的强度,只要采样密度足够,丢失的东西可以任意的少。
除了表示信号,对于几何形体的表达也经常使用量化,比如表示curve和surface。
3.
找出有限个数充分表达一个对象也许不是最困难的。
不过,在
其上面建立数学结构却未必了。一般来说,我们要对其进行处理,首先需要一个拓扑结构用以描述空间上的点是如何联系在一起。直接建立拓扑结构在数学上往往非常困难,也未必实用。因此,绝大部分工作采取的方式是首先建立度量结构。一个度量空间,其度量会自然地诱导出一个拓扑结构——不过,很多情况下我们似乎会无视它的存在。最简单的情况,就是使用原始向量表达的欧氏距离(Euclidean distance)作为metric。 不过,由于原始表达数值的不同特性,这种方式效果一般不是特别好,未必能有效表达实际对象的相似性(或者不相似性)。因此,很多工作会有再此基础上进行度 量的二次建立。方式是多种多样的,一种是寻求一个映射,把原空间的元素变换到一个新的空间,在那里欧氏距离变得更加合适。这个映射发挥的作用包括对信息进 行筛选,整合,对某些部分进行加强或者抑制。这就是大部分关于feature selection,feature extraction,或者subspace learning的文章所要做的。另外一种方式,就是直接调节距离的计算方式(有些文章称之为metric learning)。
这两种方式未必是不同的。如果映射是单射,那么它相当于在原空间建立了一个不同的度量。反过来,通过改变距离计算方式建立的度量在特定的条件下对应于某种映射。
4.
大家可能注意到,上面提到的度量建立方法,比如欧氏距离,它需要对元素进行代数运算。
对于普通的向量空间,线性运算是天然赋予的,我们无须专门建立,所以可以直接进行度量的构造——这也是大部分工作的基础。可是,有些事物其原始表达不是一个n-tuple,它可能是一个set,一个graph,或者别的什么特别的object。怎么建立代数运算呢?一种方法是直接建立。就是给这些东西定义自己的加法和数乘。这往往不是那么直接(能很容易建立的线性运算结构早已经被建立好并广泛应用了),可能需要涉及 很深的数学知识,并且要有对问题本身的深入了解和数学上的洞察力。不过,一个新的代数结构一旦建立起来,其它的数学结构,包括拓扑,度量,分析,以及内积 结构也随之能被自然地诱导出来,我们也就具有了对这个对象空间进行各种数学运算和操作的基础。加法和数乘看上去简单,但是如果我们对于本来不知道如何进行 加法和数乘的空间建立了这两样东西,其理论上的贡献是非常大的。
(一个小问题:大家常用各种graphical model,但是,每次这些model都是分别formulate,然后推导出estimation和evaluation的步骤方法。是否可能对"the space of graphical model"或者它的某个特定子集建立某种代数结构呢?(不一定是线性空间,比如群,环,广群, etc)从而使得它们在代数意义上统一起来,而相应的estimation或者evaluation也可以用过代数运算derive。这不是我的研究范围,也超出了我目前的能力和知识水平,只是我相信它在理论上的重要意义,留作一个远景的问题。事实上,数学中确实有一个分支叫做 Algebraic statistics 可能在探讨类似的问题,不过我现在对此了解非常有限。)
5. 除了直接建立运算定义,另外一种方式就是嵌入(embedding)到某个向量空间,从而继承其运算结构为我所用。
当然这种嵌入也不是乱来,它需要保持原来这些对象的某种关系。最常见的就是保距嵌入(isometric embedding),我们首先建立度量结构(绕过向量表达,直接对两个对象的距离通过某种方法进行计算),然后把这个空间嵌入到目标空间,通常是有限维向量空间,要求保持度量不变。
“嵌入”是一种在数学上应用广泛的手段,其主要目标就是通过嵌入到一个属性良好,结构丰富的空间,从而利用其某种结构或者运算体系。在拓扑学中,嵌入到metric space是对某个拓扑空间建立度量的重要手段。而在这里,我们是已有度量的情况下,通过嵌入获取线性运算的结构。除此以来,还有一种就是前些年比较热的manifold embedding,这个是通过保持局部结构的嵌入,获取全局结构,后面还会提到。
6.
接下来的一个重要的代数结构,就是内积(inner
product)结构。
内积结构一旦建立,会直接诱导出一种性质良好的度量,就是范数(norm),并且进而诱导出拓扑结构。一般来说,内积需要建立在线性空间的基础上,否则连一个二元运算是否是内积都无法验证。不过,kernel理论指出,对于一个空间,只要定义一个正定核(positive
kernel)——一个符合正定条件的二元运算,就必然存在一个希尔伯特空间,其内积运算等效于核运算。这个结论的重要意义在于,我们可以绕开线性空间,通过首先定义kernel的方式,诱导出一个线性空间(叫做再生核希尔伯特空间 Reproducing
Kernel Hilbert
Space),从而我们就自然获得我们所需要的度量结构和线性运算结构。这是kernel
theory的基础。在很多教科书中,以二次核为例子,把二维空间变成三维,然后告诉大家kernel用于升维。对于这种说法,我一直认为在一定程度上是误导的。事实上,kernel的最首要意义是内积的建立(或者改造),从而诱导出更利于表达的度量和运算结构。对于一个问题而言,选择一个切合问题的kernel比起关注“升维”来得更为重要。
kernel被视为非线性化的重要手段,用于处理非高斯的数据分布。这是有道理的。通过nonlinear kernel改造的内积空间,其结构和原空间的结构确实不是线性关联,从这个意义上说,它实施了非线性化。不过,我们还应该明白,它的最终目标还是要回到线性空间,新的内积空间仍旧是一个线性空间,它一旦建立,其后的运算都是线性的,因此,kernel的使用就是为了寻求一个新的线性空间,使得线性运算更加合理——非线性化的改造最终仍旧是要为线性运算服务。
值得一提的是,kernelization本质上说还是一种嵌入过程:对于一个空间先建立内积结构,并且以保持内积结构不变的方式嵌入到一个高维的线性空间,从而继承其线性运算体系。
7.
上面说到的都是从全局的方式建立代数结构的过程,但是那必须以某种全局结构为基础(无论预先定义的是运算,度量还是内积,都必须适用于全空间。)但是,全局结构未必存在或者适合,而局部结构往往简单方便得多。这里就形成一种策略,以局部而达全局——这就是流形(manifold)的思想,而其则根源于拓扑学。
从拓扑学的角度说,流形就是一个非常优良的拓扑空间:符合Hausdorff分离公理(任何不同的两点都可以通过不相交的邻域分离),符合第二可数公理(具有可数的拓扑基),并且更重要的是,局部同胚于R^n。因此,一个正则(Regular)流形基本就具有了各种最良好的拓扑特性。而局部同胚于R^n,代表了它至少在局部上可以继承R^n的各种结构,比如线性运算和内积,从而建立分析体系。事实上,拓扑流形继承这些结构后形成的体系,正是现代流形理论研究的重点。继承了分析体系的流形,就形成了微分流形(Differential
manifold),这是现代微分几何的核心。而微分流形各点上的切空间(Tangent
Space),则获得了线性运算的体系。而进一步继承了局部内积结构的流形,则形成黎曼流形(Riemann
manifold),而流形的全局度量体系——测地距离(geodesics)正是通过对局部度量的延伸来获得。进一步的,当流行本身的拓扑结构和切空间上的线性结构发生关系——也就获得一簇拓扑关联的线性空间——向量丛(Vector
bundle)。虽然manifold theory作为现代几何学的核心,是一个博大精深的领域,但是它在learning中的应用则显得非常狭窄。事实上,对于manifold,很多做learning的朋友首先反应的是ISOMAP, LLE, eigenmap之类的算法。这些都属于embedding。当然,这确实是流形理论的一个重要方面。严格来说,这要求是从原空间到其映像的微分同胚映射,因此,嵌入后的空间在局部上具有相同的分析结构,同时也获得了各种好处——全局的线性运算和度量。不过,这个概念在learning的应用中被相当程度的放宽了——微分同胚并不能被完全保证,而整个分析结构也不能被完全保持。大家更关注的是保持局部结构中的某个方面——不过这在实际应用中的折衷方案也是可以理解的。事实表明,当原空间中的数据足够密集的情况下,这些算法工作良好。
Learning中流形应用的真正问题在于它被过滥地运用于稀疏空间(Sparse space),事实上在高维空间中撒进去几千乃至几十万点,即使最相邻的几点也难称为局部了,局部的范围和全局的范围其实已经没有了根本差别,连局部的概念都立不住脚的时候,后面基于其展开的一切工作也都没有太大的意义。事实上,稀疏空间有其本身的规律和法则,通过局部形成全局的流形思想从本质上是不适合于此的。虽然,流形是一种非常美的理论,但是再漂亮的理论也需要用得其所——它应该用于解决具有密集数据分布的低维空间。至于,一些paper所报告的在高维空间(比如人脸)运用流形方法获得性能提升,其实未必是因为“流形”本身所起的作用,而很可能是其它方面的因素。
8.
流形在实际应用中起重要作用的还有两个方面:
(1)研究几何形体的性质(我们暂且不谈这个),
(2)它和代数结构的结合形成的李群(Lie
group)和李代数(Lie
algebra)。
当我们研究的对象是变换本身的时候,它们构成的空间是有其特殊性的,比如所有子空间投影形成了Grassmann流形,所有的可逆线性算子,或者仿射算子,也形成各自的流形。对他们的最重要操作是变换的结合,而不是加法数乘,因此,它们上面定义的更合适的代数结构应该是群和不是线性空间。而群和微分流形的结合体——李群则成为它们最合适的描述体系——而其切空间则构成了一种加强的线性空间:李代数,用于描述其局部变化特性。李代数和李群的关系是非常漂亮的。它把变换的微变化转换成了线性空间的代数运算,使得移植传统的基于线性空间的模型和算法到李空间变得可能。而且李代数中的矩阵比起变换本身的矩阵甚至更能反映变换的特性。几何变换的李代数矩阵的谱结构就能非常方便地用于分析变换的几何特性。
最后,回头总结一下关于嵌入这个应用广泛的策略,在learning中的isometry, kernel和manifold embedding都属于此范畴,它们分别通过保持原空间的度量结构,内积结构和局部结构来获得到目标(通常是向量空间)的嵌入,从而获得全局的坐标表达,线性运算和度量,进而能被各种线性算法和模型所应用。
在获得这一系列好处的同时,也有值得我们注意的地方。首先,嵌入只是一种数学手段,并不能取代对问题本身的研究和分析。一种不恰当的原始结构或者嵌入策略,很多时候甚至适得其反——比如稀疏空间的流形嵌入,或者选取不恰当的kernel。另外,嵌入适合于分析,而未必适合于重建或者合成。这是因为嵌入是一个单射(injection),目标空间不是每一个点都和原空间能有效对应的。嵌入之后的运算往往就打破了原空间施加的限制。比如两个元素即使都是从原空间映射过来,它们的和却未必有原像,这时就不能直接地回到原空间了。当然可以考虑在原空间找一个点它的映射与之最近,不过这在实际中的有效性是值得商榷的。
和Learning有关的数学世界是非常广博的,我随着学习和研究的深入,越来越发现在一些我平常不注意的数学分支中有着适合于问题的结构和方法。比如,广群(groupoid)和广代数(algebroid)能克服李群和李代数在表示连续变换过程中的一些困难——这些困难困扰了我很长时间。解决问题和建立数学模型是相辅相成的,一方面,一个清晰的问题将使我们有明确的目标去寻求合适的数学结构,另一方面,对数学结构的深入理解对于指导问题的解决也是有重要作用的。对于解决一个问题来说,数学工具的选择最重要的是适合,而不是高深,但是如果在现有数学方法陷入困难的时候,寻求更高级别的数学的帮助,往往能柳暗花明。数学家长时间的努力解决的很多问题,并不都是理论游戏,他们的解决方案中很多时候蕴含着我们需要的东西,而且可能导致对更多问题的解决——但是我们需要时间去学习和发现它们。
作者:邹晓辉
首先,因为“智能化”是一个笼统不清的称谓。
例如,自然人的心理智力就有众说纷纭的多种观点——这是心理学研究的领域。
再如,计算机的人工智能也有相互对立的两种观点——计算机科学研究的领域。
另外,还有从古至今一直没有说清楚的爱智慧学说——属心智哲学探讨的领域。
同时,也酝酿着重大突破
采用博主的融智学问的观点来看,“智能化”可一分为三即智慧、智力、智能。
例1:图灵测试——判定计算机是否具备自然人的智力?
例2:中文房间——旨在说明计算机即使通过图灵测试也不具备自然人的智力。
图2
塞尔的中文屋子示意图
例3:思辨系统——三类双语协同处理知识和信息的一系列孪生图灵机即多胞冯氏机蕴含了计算机不理解的中文房间——它本质上可以优化为一个广义双语信息处理系统(这是单一的图灵机即冯氏机所不能理解的中文系统)
以下是协同智慧得以实现的基于广义双语信息处理的计算机辅助思辨系统原理的组图。
图3
三类孪生图灵机蕴含着三类双语即广义双语信息处理的原理及其以汉语为例的典型示例
图4
言和语的关系(同时也是语言和信息的关系)原理即序位法则(第一基本定律即本真信息唯一守恒法则)
图5
自然语言理解的形式化路径(双重路径蕴含第一、第二和整合的所谓“第三路径”)
图6
普通语言学和形式语言学共同研究的基本对象及其派生对象(该理论模型体现了语言和信息的关系)
图7
第七代编程语言和形式化双重路径蕴含在上述六代编程语言和两条形式化路径之中
图8 基于线性数字计算的人工智能、基于广义双语的协同智慧(间接计算系统
信息恒等式)、基于多元智能的人类智力
图9
言和语的关系(即语言和信息的关系)及其典型实施例(以中文信息处理为例)
图10
序位恒等式即本真信息在广义文本之间转换所遵循的形式信息基本定律及其应用示例
图11
基于信息恒等式即天平原理(第二基本定律:形式信息转换法则)间接形式化方法和间接计算模型
“三智”(智慧、智力、智能)融通融合可在教育和管理两方面推广普及基于汉英双语协处理软件编程模式。
图12 广义双语教管信息处理的协同化双重路径即融智途径
由图12可见,第一路径止步于智能化阶段,也就是说,前四个阶段均为少数计算机编程人员涉猎的领域,由于“强智化”即“强人工智能”的“图灵测试”要求太高,因此,至今都没有任何一台计算机能够全面通过“图灵测试”。“弱智化”即“弱人工智能”的观点已经被塞尔的“中文房间”所证成,因此,第一阶段的“数字化”和第六阶段的“弱智化”可以通过“间接形式化”方法和“间接计算”模型形成“第二路径”,以此区别于“第一路径”。再进一步,则可通过“第一路径”和“第二路径”结合而构成的“双重路径”形成“协同化”即“第七阶段”,从而,真正地跨越“智能化”瓶颈。这是一个非常大胆的假设,即:三智融通融合形成广义双语教管信息处理的协同化双重路径即虚拟的“第三路径”或融智途径。
从图灵机到图灵测试再到中文房间均可纳入广义双语信息处理模型来解释
http://blog.sina.com.cn/s/blog_65197d9301012b2s.html
http://blog.sina.com.cn/s/blog_65197d9301012b2s.html
————————————————————————————————————————————————
结语:
哲学对话是哲学家们在各自独立思辨过程中相互之间发生的理性对话。数学的定量分析和逻辑学的定性分析是哲学思辨和理性对话的基本方式。分析哲学作为哲学思辨和理性对话的主流及其传统延续至今,时代发生了翻天覆地的变化,当代计算机及其国际互联网时代为数学的定量分析和逻辑学的定性分析提供了前所未有的电脑辅助方法和形式化工具。
电脑表现出的人工智能作为它者的出现,与语言和文化以及受教育程度等背景大相庭径的人脑表现出来的人类智力作为他者的出现,不仅具有不同的作用,而且,必然派生出人脑和电脑两类脑融合表现出来的协同智慧作为他者乃至它者的各种结合现象,这与人脑和电脑各自独立分离时的情形有很大的不同。可称这种人脑和电脑结合而形成的双脑协同智慧现象为一种典型的智慧融通融合现象,为便于区分三类脑智,可暂时称之为“第三脑智慧”。这对当代的哲学思辨和理性对话也必然会产生巨大的影响。
以往的心智哲学理论所述的两种“智能观”即阐述“强人工智能”与“弱人工智能”的两类哲学观点,实际上分别代表或表达的是人们对“第一类脑即生物脑的虚拟心理智力”和“第二类脑即物理脑的虚拟数理智能”的基本看法。两者可视为古希腊哲学“爱智慧”传统分别在心理学和计算机科学及其相应的心智哲学上的具体表现形式。换句话说,心理学研究的人类大脑智力和计算机科学研究的人工电脑智能及其相应的心智哲学进一步试图探讨在古希腊哲学家“爱智慧”传统基础之上通过自然语言形式化途径构建具有智慧科学研究性质的融智学问,其特征在于重点研究“第三类脑即生物脑和物理脑之间合理分工、优势互补,高度协作、优化互动的虚拟协同智慧”。由此区分智力、智能、智慧三个关键性基础术语,如果采用英语来描述即心理学研究的自然人大脑智力、计算机科学以及软件工程技术研究的计算机电脑智能和古希腊哲学家崇尚并追求探索且影响至今而仍在研究的智慧——融智学称之为人机协同的双脑智慧。具体反映在计算机编程语言的进化形式上就是把第五代计算机和第五代编程语言所共同遭遇的“智能化”难题“一分为三”即“(专项功能的)强智化”、“(普及功能的)弱智化”和“(整体功能的)融智化”作为“智力、智能、智慧”的体现。这三类“智”如何通过具体的语言而准确无误地表达出来而又不会引起歧义或误解呢?以往的语言学和语言哲学都没有也不可能深入地探讨过这个问题。
以往的语言哲学理论所论述的“语言观”即分析“语言”、“思想”或“心智”、“世界”三者的关系——早期维特根斯坦所关注的三个理论范畴也是弗雷格的“表达式”、“意义”、“指称”以及索绪尔的“能指”与“所指”(涵盖“意义”和“指称”),以及对“语言游戏”和“家族相似性”的探讨——这是晚期维特根斯坦所关注的两个实践范畴。笔者早期对中文“意”、“意义”、“义”三个类的划分,自然地引出了对中文“物”、“物理”、“理”三个类的划分,以及对“文”、“文法”、“法”三个类的划分。其中,近期对“言”和“语”两个形式类的区分,仅限于对“文”乃至“广义文本”的内部两个基本形式类的划分。而对“物之理”、“意之义”、“文之法”和“道之本”四个基本抽象类的划分,则是更深层次的“本真信息”探讨。这种基于汉语或中文思维而形成的“世界观”及其“方法论”如何与西方分析哲学的基于印欧语例如英语或英文思维而形成的“世界观”及其“方法论”之间达成有效对话呢?笔者与塞尔之间通过多次对话,终于在今年就最基本的一个抽象范畴即“基础关系”达成了一致的看法和语言描述即“Fundamental Relation”(道之本)。这也就为笔者探索了很多年的整个“文化基因系统工程”涉及的宏观哲学框架(本真信息和广义文本即涵盖所有“物类”乃至“意类”的广义的“文类”及其八大形式体系)以及可采用间接形式化方法加以描述的微观科学体系,即“言和语的关系”及其一系列可形式化描述的具体“文类”或“形式体系”——如果说这是语言和信息两个形式类的“迭交”原理,那么,“智慧化”内容就是“意类”,而“物类”则涉及一系列很具体的“个例”和“群例”及其所具有的质能载体物性特征。
本文通过“图灵测试”、“中文屋子”和“思辨系统”三个术语及其代表的理想实验旨在揭示它们分别代表或表达的三类脑智,即:人类智力、人工智能和协同智慧。即本文试图在基于“图灵测试”和基于“中文屋子”两种“智能观”即“强人工智能”与“弱人工智能”的基础上推进一步,建立一种新的“智能观”即阐述“第三类脑的虚拟智慧”的哲学观点。标准模型中的Higgs机制
by:格致人生粒子物理学是一门试图揭开大自然最根本物理规律的科学。粒子物理学家们研究形成宇宙物质的基本粒子和它们之间的相互作用。有一个称作标准模型的理论,非常成功地将4种相互作用里中的3种融入到了同一个框架内。标准模型理论的建立大大加深了我们对自然的理解。
但是这个理论自从建立以来一直有一个问题————为了解释基本粒子质量的来源,标准模型中引入了一个之前从未有人观测到的 Higgs 场。尽管 Higgs 机制可以在标准模型的框架内很好地解释基本粒子的起源问题,但是如果这个假想的客体无法在实验中验证的,这恐怕将是标准模型理论的灾难。而这次(2012年7月4日)在 CERN 发现的类似 Higgs 的新玻色子,很可能是标准模型预言的那个 Higgs 玻色子,也即最终完成标准模型最后一块拼图的关键要素即将被确认,因此这很可能成为粒子物理学历史中一个具有里程碑意义的发现。
在解释 Higgs 玻色子和标准模型究竟是怎么回事之前,我觉得有必要或没必要地需要先对一些基本的物理概念做一些解释。
背景知识:基本相互作用、场、作用量原理、对称性
1、玻色子和费米子
所有的基本粒子可以根据它们的统计性质,分为玻色子和费米子两大类。简单地说,玻色子是集体主义者,它们不介意一窝蜂地挤在一起,占据相同的态。而费米子性格比较孤僻,如果一个态被一个费米子占据了,那其他的费米子就不能再进来了。玻色子和费米子这种不同性质是由一种叫做自旋的内在属性决定的。玻色子的自旋都是整数,如0,1。费米子的自旋都是半整数,如1/2,3/2。
在下面的讨论中,我们不会提及太多关于不相容性或者是自旋的内容,大家只需要粗略地知道玻色子和费米子不过是两种粒子的分类名称就足够了。
2、基本作用力
一般认为,自然界中一共有4种基本相互作用,分别是引力相互作用,电磁相互作用,强相互作用和弱相互作用。有时候我们会简单地称它们为引力,电磁力,强力和弱力。
需要注意的是,相互作用与力的概念是有不同的。下面马上会提到,理论物理学中研究的基本客体是场,用力这个词来描述场之间的相互作用不是非常恰当。但是很多时候不必追求过于严谨,术语的使用会比较随意。
这4中基本相互作用中,引力不用多说,两个有质量物体之间的相互吸引。强力和弱力是在非常非常小的微观尺度下在原子核中表现出来的两种不同作用,简单来说,强力把质子和中子绑在一起形成原子核,弱力跟原子核的某些衰变过程相关。电磁力是我们生活中接触最多的一种力。因为物质都是由原子组成的,从微观上来看,当两块物质相互接触时,原子的外层电子与靠近它的其他原子中的外层电子通过电磁力相互掐架,所谓的摩擦力、支持力、弹簧弹力等等,都是电磁力的宏观表现,而电磁力才是最基本的相互作用。
物理学家的一个终极目标就是试图写下一个理论,可以将4种基本作用力全部囊括在内。标准模型是迄今为止最成功的统一模型,它成功地将除去引力之外的另3中基本作用写进了同一个理论。对于引力,至今仍然有许多技术上的问题没有解决。
3、场
粒子物理中所研究最基本的对象是场,一种分布在宇宙各处的物理客体。场的概念最早来自于对电磁学的研究,引入电场和磁场的概念来描述一个物理在电磁作用下的运动会使得讨论变得非常方便。标准模型理论就是一系列场的理论。场与场之间可以发生相互作用。场的波动产生的涟漪,称作元激发,就是一个实物粒子。需要注意一下场和粒子是非常不同的客体,场是无处不在、分布在时空各个角落的,而粒子是一些点,它们不占据或者几乎不占据任何空间体积。
CERN 新发现的这个玻色子,就很可能是标准模型中一直无法实验验证的 Higgs 场的元激发。标准模型中引入了假想的 Higgs 场解决了其他实物粒子诸如夸克、电子等没有质量的问题, 如果能够实验确定 Higgs 粒子的存在,那就是对 Higgs 场的存在强有力的证明。
4、作用量原理
这是理论物理学中最重要也是最漂亮的原理之一。对于任何一个物理体系,我们都可以定义一个叫做作用量的物理量,它跟体系的能量有一点关系,但是概念上有所不同。作用量原理说的是,不管一个体系如何,它所作的运动总会使得体系的作用量达到一个极小值。(注:对于一些特殊情况,有可能是极大值,但在这里不作过多讨论)
举几个例子。比如苹果为什么会掉到牛顿脑袋上?因为地上的作用量要比天上的小,所以苹果如果自由运动的话,它会设法让自己的作用量变小,就朝着地面掉下来了。又比如为什么光在介质里总是沿直线传播?因为如果它沿曲线传播,曲折的路径所对应的作用量会更大,因此实际中,光永远都会聪明地挑选最实惠的,或者说作用量最小的直线。
我们看到,作用量原理的适用范围很广。其实,只要我们知道一个系统的作用量,它的物理运动都可以由作用量原理推出。换句话说,要研究一个物理体系的行为,就是去写它的作用量。如果我们知道了作用量,那么根据作用量原理,就可以得到作用量满足极小条件时的运动方程。如果能够解出这个运动方程,那么体系的所有信息就都有了。
5、对称性
既然说解物理问题就是写作用量,那么我们就开始动笔写吧。但是等一下,作用量并不是随便写的。有一个重要的约束条件,我们要求我们的作用量在一些对称操作下保持不变,或者说作用量必须满足某些对称性。
这里所说的对称性是广义的对称性,只要作用量在某种变换操作下保持不变,我们就说这是一种对称性。对称性不仅仅是指一个人站在镜子前,镜子中会看到一个跟自己一样的镜像这种性质。镜像对称只是诸多广义对称性中的一种。
举几个例子。比如说,不管你身处何方,是在家里还是在马路上,在中国还是在火星,或者是在几千光年外的星系中,我们观察的物理规律应该是一样的,也就是说不管移到哪里我们的作用量应该还是那个作用量,这称作平移对称。又比如,不论你面朝东南西北,是仰望星空还是低头思考人生,观察到的物理规律也不会有所区别,这称作转动对称。在比如,你今天做一个试验,或者明天做一个试验,你去跟几百年前牛顿和伽利略做的试验区比较,你也可以让你的曾曾曾孙子做一个相同的试验,但是这些试验所遵循的物理规律也应该是相同的,这称作时间对称性。这三种对称性的约束条件非常自然,和我们直观的感受相符。平移对称、转动对称、时间对称,这三者也是理论物理学中最基础的对称性,可以等价地看作数学理论中的公理。由这三种对称性,就可以写下具有物理意义的作用量。
在标准模型中,会涉及到比这三种对称性更深层次的对称性,这个之后会慢慢作解释。
6、守恒律
这是我想要介绍的最后一点背景知识,也是物理学中很漂亮的一个结论。它叫做 Noether 定理,由德国女数学家 Emmy Noether 最先提出。这条定理说:对应于某种对称性,必然会存在一条守恒定律,我们可以进而定义相对应的守恒量。
我们结合上面的例子来解释。比如对应于平移对称,一个自然的结果就是动量守恒。对于转动对称,我们会有角动量守恒。对于时间对称,我们会有能量守恒。这些普通物理学课本中作为定论的守恒律,其实都可以理解为约束了物理世界的对称性后自然的结果。
对于标准模型,由于它涉及新的对称性质,因此还会有新的守恒量。好了,我已经花了不少功夫介绍完了必要的概念,接下来可以探讨标准模型究竟是在做什么了。
标准模型、规范场
物理学家们已经发现了非常多的基本粒子,它们有夸克(有6种味,分别叫做上,下,奇,魅,顶,底夸克),轻子(有3个族,电子,μ 子,τ子,和它们对应的中微子,也是6种),光子(光,或者说是电磁波的量子,共1种),W玻色子和Z玻色子(W玻色子有2种,分别有正负电荷。Z玻色子只有1种,不带电荷),胶子(有8种之多),以及相应的反粒子们。
这些基本粒子中,有一些和我们的生活息息相关。上夸克和下夸克可以组成质子和中子,和电子一起它们就可以构成一个原子,而大量的原子就可以组成我们生活中看得见摸得到的物质。
但另一些基本粒子就比较罕见,它们中有几个的行为也比较奇特。物理学家们试图理解这些粒子的行为。它们是如何相互作用的?为什么有些粒子会不稳定?为什么不同的粒子之间质量的差异会那么巨大?是不是还有更多的基本粒子?有很多疑问都需要解答。
我们知道,在化学研究中,化学家们根据元素的性质规律,可以把100多种元素排进一张元素周期表。周期表中每一列上的元素都有相似的化学性质,而另一列上的元素会有另外的某些性质。现在我们知道,我们可以这么做的原因在于原子深层次的内部结构决定了不同元素的性质。那些围绕原子核运动的电子决定了元素的化学性质。
那么物理学家能不能作一张类似于元素周期表的基本粒子表呢?答案是肯定的。物理学家努力寻找这些基本粒子的规律后发现,所有的这些基本粒子可以完美地填到如图所示的表中。我们可以这么做的原因,就是本文重点要解释的标准模型。
标准模型是通过一系列对称性原理建立起来的。除去先前提到过的平移、转动、时间三种基本的对称性,标准模型还约束了一种新的对称性——规范对称。由于标准模型同时是一个场的理论,因此很多时候我们也会说标准模型是一个规范场的理论。
提到规范场理论的发展不得不要提一下著名的华裔物理学家杨振宁先生,他和另一位美国物理学家 Robert Mills 在1954年尝试用非交换群的规范场理论来描述强相互作用,直到多年后才忽然受到学术界重视,后来随着其他一些理论工作的进展,规范场理论渐渐成为标准模型中的重要一环。杨振宁和他的同事所提出的规范场理论后来被人称作 Yang-Mills 规范场,如果你打开任何一本量子场论的教科书,你都会发现这部分内容会占去相当的篇幅。杨振宁在规范场理论方向的工作的重要性,甚至要超过他和李政道获得诺贝尔奖的对于宇称不守恒问题的研究。
另外我在这里还想提到另一点,尽管可能会扯得很远。上个月刚刚去世的复旦数学系的谷超豪院士,他从70年代起与杨振宁有过一段长时间的合作,对规范场的数学基础的奠定作了相当的重要工作,他们是最早一批将粒子物理学中的规范场和微分几何中的联络和曲率这些概念联系起来的研究者,他们发现可以用数学中纤维丛的语言来描述规范场所处的向量空间。总之,是非常漂亮的结果,同时这件把物理和数学直接联系起来的工作也具有相当大的重要性。尽管我和谷超豪先生未有过任何交流,但是我仍愿在这里表达一下我对大师的敬仰和纪念。
果然扯远了,回来继续说标准模型。在加上规范对称的条件后,我们差不多就可以写下标准模型的作用量了。如果要写,写成最紧凑的形式大概就是这样。
如果你想要伪装成一个粒子物理学家,不妨拿张纸和笔,把这个式子一写,比什么都管用。式子右边第一项就是规范场的贡献,第二项是来自实物粒子场的动能项。至此,这个理论的物理图像开始渐渐清晰了。基本粒子被划分成了实物粒子,和规范场的粒子。实物粒子包括夸克和轻子,它们以那个动能项的形式进入了作用量。而规范场粒子包括光子,W和Z玻色子,以及胶子。
如果我们把这个紧凑的数学形式写开,展开后至少要写个四五行,我们会发现实物粒子和规范场粒子之间有一些相互交叉的项,正说明实物粒子和规范场粒子之间存在相互作用。规范场粒子在其中起到的作用,可以理解为实物粒子之间相互作用的传递者。在这个图像中,两个电子之间可以通过交换一个光子发生电磁相互作用,一个夸克和一个电子可以通过交换一个W玻色子发生弱相互作用,两个夸克可以通过交换一个胶子发生强相互作用。也就是说,从这个模型中,我们知道了基本粒子之间相互作用的根本机制。对于粒子对撞后的散射过程,原则上我们也可以对这个过程做精确的计算。
我们可以再回过头来看一看对称性。其实标准模型中涉及到了三种规范对称,如果把基本粒子们划分成几个多重态,则上面写出的这个作用量在这三种规范变化下都可以保持不变。在背景知识中,我们介绍了只要有对称性,那必定会有守恒量。在标准模型中,每个粒子都在局域的相位变换中保持作用量不变,这对应的守恒量叫做超电荷,之后会说到超电荷和普通的电荷两个概念的联系。又例如轻子中的每一组,都可以构成一个双重态,在规范变换中保证一个叫做同位旋的物理量守恒。每种味的夸克都可以构成一个三重态保证一个叫做色的物理量守恒。尽管模型最早先几乎是从纯数学的角度建立的,但是这里的三个守恒物理量,超电荷、同位旋、色,都已经在实验中或直接或间接地被证实。
好了,基于规范场的标准模型的框架差不多已经建立好了,而且这套理论非常成功,它可以很好地解释强、弱和电磁相互作用,并且对一些过程的理论的计算结果和实验匹配得非常好。那么还有什么问题吗?
Higgs 机制、对称破缺
是的,还有个大问题。那就是我们还没有引入质量项。现在理论里所有的基本粒子都是无质量的粒子。一方面,我们清楚地知道,我们熟悉的诸如电子的实物粒子确确实实具有质量。另一方面,相对论告诉我们,一个零质量的物体永远以光速运动。也就是说,现在写下的这个标准模型中的粒子全都在呼呼乱飞,根本没法形成稳定的原子,进而形成我们赖以生存的物质。这个推论显然不靠谱。这个理论里没有质量项是个必须要解决的问题,这也是一开始 Yang- Mills 理论没有受到太多关注的原因之一。
那么我们来尝试写下一个质量项。当然这时候我们仍然要保证原有的对称性依然满足,拆东墙补西墙的修正是没有意义的。但是我们会发现,任何企图引入质量的尝试都会破坏规范对称性。其根本的原因在于弱相互作用有一点讨厌的地方,大自然某种意义上是个左撇子,它对左手和右手两周手性有所偏袒,这里的细节不作过多讨论。这里要强调的关键在于:我们无法在维持规范对称的约束下引入质量项。
直到1960年左右,Jeffrey Goldstone 和 Yoichiro Nambu 等人提出了一个伟大的想法,他们发现基本粒子可以通过一种叫做对称性破缺的过程获得质量。在1964年,数位科学家几乎同时发表了将这种机制引入标准模型来解释基本粒子质量来源的文章,这几位分别是 Peter Higgs [1], Robert Brout and Francois Englert [2], 和 Gerald Guralnik, C. R. Hagen and Tom Kibble [3]。CERN 的新发现很可能会为他们中的几位在近50年后带来诺贝尔奖章。这种机制后来以 Peter Higgs 的名字命名,被称作了 Higgs 机制。
这里的一个核心思想在于,它们引入了一个假想的 Higgs 场,也就是在标准模型的作用量后又添加了一项。这个 Higgs 场无处不在,弥散在宇宙空间的各个角落。Higgs 场与各基本粒子场产生相互作用,进而给了基本粒子以质量。这个 Higgs 场的粒子是 Higgs 玻色子,也就是在强子对撞实验中科学家想要看到的那个粒子。
想象一下在地面上行走,我们不用费多大的力就可以走得很快。但是如果我们跳进一个游泳池,我们就会发现,在水的阻力下,想要移动自己的身子就没那么容易了。Higgs 场以类似的方式阻碍了其他粒子的运动,等效地来看,那些粒子就获得质量。有一些粒子,它们跟 Higgs 场的作用比较强,它们感受到的阻力比较大,于是它们活得了比较大的质量,比如夸克。有一些粒子,它们跟 Higgs 场的作用相对弱一些,它们的质量也会比较小,比如电子。还有一些粒子,它们不受 Higgs 场的作用,于是它们仍然以光速在现实世界中运动,比如光子和胶子。
有了这个思路,我们差不多可以写下标准模型的完整形式了。我们需要在原来的作用量后面再补上几项,分别是新引入的 Higgs 场的动能项和势能项,以及它和原先就在模型中的那些场的相互作用项。写出来大概会是这样:
最后的那个 h.c. 指的是相互作用项的复数共轭,这是为了保证对称性需要的。由于这样引入的是一个全新的 Higgs 场,我们可以霸王硬上弓。我们强行地让这个新的场按我们期望的方式在规范对称操作下做变换,以保证原有的规范对称不变性。 接着我们来细致地探讨下对称破缺和 Higgs 机制给予粒子质量的原理。
试想我们在一个啤酒瓶瓶底上放一个小球,大概如图所示。之所以举这么个例子是因为,如果把 Higgs 场的势能项的具体函数形式化成一个图像的话,差不多就是这样的形状。不管是 Higgs 场的市场,还是现在我们关注的啤酒瓶瓶底,它们都是具有很好对称性的。我们也许觉得把小球放在那个小坡坡顶上是个不错的选择,因为那里正好处于中心位置。但是那个小球不会停在那里,它会往下滑,并最终停在坡底的某个地方。坡底那一整圈都是小球可能最终停下来的位置,但是不管小球停在哪里,这个位置不再具有良好的对称性了,这个点没有任何的特殊性。也就是说,即使这个啤酒瓶瓶底是个很好的旋转对称曲面,但是小球最后停下的位置会打破对称性。
这个图像可以类比到 Higgs 机制。就像小球总是会自己滚到最低点那样,任何物理体系在不受外界驱动的情况下,都会试图让自己处在一个能量最低的状态,这个态通常称作真空态,或者叫做基态。尽管我们开始写下的作用量具有很好的对称性,但是体系所处的真空态有可能会破坏对称性。很多时候我们会发现在真空态的附近来研究一个体系会很方便,于是我们把原来的作用量在真空态附近做展开,式子里的一些项会重新组合。如果我们来解读这些改写后的项的物理意义,我们发现,有一些基本粒子似乎是吞掉了一部分的 Higgs 玻色子从而获得了质量,而有一部分粒子没有任何影响因此它们仍然是零质量。在对称性破缺后,原来的一个守恒量超电荷,和同位旋的一个分量结合退化成了我们所熟悉的电荷,即描述物体带电量多少的那个物理量。
总结
标准模型是一个非常成功的粒子物理理论,它将强、弱、电磁三种相互作用统一了起来。为了解决基本粒子没有质量的问题,可以通过引进一个 Higgs 场。在比较低能量的状态下,对称性发生破缺,一些基本粒子从 Higgs 场的相互作用中获得了质量。Higgs 场是否存在就成为了标准模型是否能够成立最后的也是最关键的一环。如果没有 Higgs 场,就不会有带质量的夸克和电子,就不会有星系的形成,不会有山川河流,不会有鸡鸭牛羊,也不会有你有我。
《数学物理学百科全书》介绍
by:格致人生内容简介
《数学物理学百科全书》是一部全面介绍数学物理知识的百科全书。全书特色鲜明,既体现了学科的基础性、独立性、完整性,又注重学科的前沿性、交叉性、应用性,是当今数学物理研究领域最新和最全的百科全书。
本书内容涉及物理学和数学的几乎各个重要研究领域,特别注重数学物理的最新研究成果和在各领域的最新应用,并提供了大量必要的和重要的参考文献,这为有兴趣利用严密的数学框架求解物理问题和描述自然界基本规律的广大科研人员、教师和学生,提供了一部难得的数学物理资料书和实用的工具参考书,也有助于广大读者在了解和掌握物理学和数学前沿发展的基础上,进一步拓展其在交叉学科领域的应用和激发出新的研究方向和领域。
特点
编纂队伍阵容强大——来30个国家的400多位物理学家和数学家,历时4年,倾力奉献。包括诺贝尔物理学奖获得者杨振宁教授和英国牛津大学RogerPenrose教授等。
按学科分支重新编排——共分12卷:
数学物理导言1卷(含中文翻译),
物理学方面7卷(卷2~卷8),
数学方面4卷(卷9~卷12)。
内容新颖权威——400多篇图文并茂的综述性文章。内容全面系统。领域涵盖广泛,参考文献丰富,可全面了解数学物理基础知识、发展前沿以及核心课题。适用范围广泛——适于物理学和数学领域的所有高等院校的广大师生和科研院所的研究人员及研究生参考使用。
序言
数学物理是一门基础学科,它是理论物理中最最接近数学核心的部分。在我们选择的题目中,一部分遵循了近期数学物理国际大会的纲要,但主要参照编辑顾问委员会和作者的提议。
由于时间和空间的限制,以及我们自身的水平所限,更改了某些冗长的题目,但我们尽量收录了我们认为是核心的课题,尽量覆盖更多的最活跃的领域。由于我们的课题是跨学科的,这部百科全书应当有某些特殊的特色。比如,同一数学理论应用到不同的物理问题时,会有不同的侧重点和处理方法。同样相同的物理题可以运用不同数学领域的方法。这就是为什么我们把百科全书成了两个广阔的部分:物理学课题和相关的数学课题。每一部分的文章允许与其他部分有相当的重复,放多文章会出现在多个标题下,不过它们都被精心制作的对照表联接起来。我们认为,这会给课题的整体性做出更好的描述,为来自广泛的相关领域的研究者提供更好的服务。
百科全书主要针对有经验的研究者,不过也会对初学的研究生有用。对于后者,我们收录了8篇初等的导论性文章,以便于参考,其中这文章是针对物理研究生的,物理文章是针对数学研究生的,这些文章可以作为他们在阅读主体文章前的准备,而不需要查阅其他资料。
丛书分卷
1、数学物理学导言
2、经典力学;流体动力学
3、可积系统;经典、共形与拓扑场论
4、规范场论;量子场论
5、广义相对论;量子引力;弦论和 M-理论
6、凝聚态物质与光学;量子信息与量子计算;量子力学
7、无序系统;动力系统
8、平衡态统计力学;非平衡态统计力学
9、代数技巧;李群和李代数;离散数学;量子群;随机方法
10、复几何;微分几何;低维几何;非交换几何
11、代数拓扑;辛几何与拓扑;常微分和偏微分方程
12、泛函分析和算子代数;量子化方法和路径积分;变分技术
“终极理论”的竞赛
by:格致人生广义相对论是我所知道的理论中最优美高贵的理论,其思想的深邃数学的优美令人叹服,如果要评价理论的优美,量子理论还远远比不上广义相对论。在广义相对论里,时空是一个黎曼流形,引力可以用流形上的黎曼联络来表征,而能量动量张量守恒居然和时空的曲率有关(也即爱因斯坦引力场方程)。一切的观测量都是有明确几何意义的量。几何!当微分几何深入到物理领域,它所迸发出来的美丽令所有物理学家倾倒。
---------------------------------------------------------------------------------------------------
规范对称性--标准模型--几何解释
相比之下,量子理论是如此的怪异如此的出人意料以至于爱因斯坦本人认为这个理论太丑陋了,他至死都拒绝接受上帝会用这种理论来确定自然法则。他在生命的最后三十年致力于统一理论,试图统一4种相互作用,但是他失败了。
在爱氏死后的第十个年头,温伯格(Weinberg)等人借助融入了Yang-Mills场的量子场论统一了弱电相互作用,萨垃姆(Salam)后来将强相互总用也归入到这个理论里,这就是所谓的量子世界的“标准模型”。后来经过Salam 和格拉肖(Glashow)采用 GUT(Grand Unification Theory)改造之后,“标准模型”得以完善。然而这个理论的缔造者们也觉得自己的理论太过丑陋,在标准模型中,需要 19个耦合常数,这些耦合常数不能从理论上得出只能依靠实验,因此从这方面看来,“标准模型”就像是胡乱堆起来的一堆杂物。这无疑让本质上都是完美主义者的物理学家们感到十分不快。温伯格曾经无奈的说:“我也不知道我制造了怎样的一个怪物,但是它的确管用。”((顺提一下,温伯格写过一本广义相对论和宇宙论方面的专著《引力论和宇宙论》,这是迄今为止站在粒子物理的背景下看广义相对论的最好的教材。)
当量子论的粉丝们信誓旦旦地打算征服“引力”这座最后的堡垒时,他们败得一塌糊涂。以至于量子理论多年以来一直无法再组织一次像样的攻城战。
引力理论的专家们对“标准模型”有着根本的抵触心理,他们尝试着收复失地,从几何上来理解规范场论,这是一个极其艰难的旅程,每一步都走得十分痛苦。其中有个叫内山菱友(Ryoru Utiyama)的人,他从微分几何出发,引入纤维从和丛上的联络,利用正交标架的理论证明了杨振宁的规范理论事实上可以看作是一个几何理论,它们两者完全等价。这个结果应当是石破天惊的!
-------------------------------------------------------------------------------------------------- 弦论和M理论
弦论发展于Kaluza-Klein理论和超引力理论,大成于 M理论。Kaluza-Klein理论早在40年代就有了,但是一直没有被人重视。K-K理论通过在时空上在加上一维,并且这一维是一个极小的圈,以至于只有在普朗克尺度下才能看得到。奇迹出现了,如果引入这个额外的维度,电磁理论竟然自然的出现在引力理论里面。从五维的时空理论能够直接同时得到电磁力和引力,这无疑是十分振奋人心的。但这样的一个理论竟然被物理学家搁置了很多年,原因十分简单,它没法更进一步,没法征服弱和强相互作用理论。
就在双方各自为政,处于冷战期间,上天似乎有意要使局势发生戏剧的变化,一件不同寻常的事情发生了。70年代末,康奈尔大学的图书馆,一个叫维其亚内的年轻人为了消遣无聊的时光,摆弄着一组耦合常数,他竟然把这些耦合常数放到一个函数中去,这个函数看起来不是那么怪异,他记得在某本数学书上看到过这个函数。于是他开始寻找这个函数,果然,它的名字叫“模函数”。当代物理的超级理论,超弦理论就这么被糊里糊涂的发现了。当然,维其亚内本人并没有意识到他发现的理论就是超弦理论,这是由尼尔森和泡尔钦斯基等人证明的,只要在弦理论(其实这时候弦理论真是咸鱼翻身,几乎是无人问津的快要死亡的理论。)里引入超对称,维其亚内的函数就刻画了一根弦的运动。通过吸收K-K理论(10维)进来(KK理论的额外维度就是一根闭弦),立刻导致了第一次超弦大革命的爆发。一夜间,弦论获得了新生,它丛灰烬中涅磐,发出极其炫目的光芒,几乎另所有理论物理学家疯狂。然而好景不长,人们很快发现,有五种不同的超弦理论。超弦家族分裂了,这五个理论看起来完全不一样,水火不容,而且谁都不服谁。经过一段时间的争论,大家都发现打败不了对方,只好归于沉寂。第一次超弦大革命以战国形式结束。
随后的几年虽然彼此互有攻伐但都没有改变格局。这时候,在普林斯顿,有四个人,其中以威腾为代表,做出了举世瞩目的成就,威腾证明,五个理论事实上可以从一个更基本的理论导出来,即 M 理论!之前的五种超弦对应于5种膜的运动方式。空间的维度为11维。膜理论产生了,它一出手就统一了五个诸侯国,四海之内,莫非王土,率土之滨,莫非王臣,膜理论君临天下,不可一世。它融合了量子理论和引力理论的精髓,是当之无愧的量子引力理论。物理学家们都松了一口气,量子理论和引力理论双方都达成了协议,冷战宣告结束了。来自物理学家内部的声音是如此的一致,他们热烈拥抱这个理论。第二次超弦大革命爆发了。
另一方面,物理学的巨大突破使数学家们也蜂拥而至,对于这个全新的理论,数学家特别是微分几何学家们都觉得不陌生,他们开始以极大的兴趣研究超弦的数学背景。1989年,在第一次超弦革命时候,琼斯等人证明,在4维且仅当 4维的时候,时空有无穷多的非平庸的微分结构。等等,这说明什么?这说明上帝在选择时空的时候不是高兴多少维就多少维的。4维是最特殊的,换句话说,它是个基态!所有的超弦理论必须要在4维的极限下回到我们的经典的理论,也就是回到我们的观测的这个世界。这个上帝的法则让刚刚兴奋不已的物理学家立刻沉默了,他们开始计算,结果却令人沮丧,他们无法回到基态!因为这时候基态有无穷多个。这就是著名的真空疑难。这记来自数学家的闷棍打的超弦理论直不起腰来。它只能黯然休养,期待东山再起。来自GUT 的重要贡献者、诺贝尔物理奖获得者Glashow 的态度是:弦论不是物理学,"...you may call it tumor, if you will..."。S.Hawking 也明确地说:“弦论是被过分地兜售了!”
---------------------------------------------------------------------------------------------------
圈量子引力理论
关于圈量子引力理论,这个理论被认为是另一个可选的统一理论。圈量子引力论的创始者之一李·施莫林已思索过弦论与圈量子引力两者可能分别是一个终极理论两相不同的近似这样的可能性。
圈量子引力的主要物理设想都以广义相对论和量子力学为基础, 而不附加任何额外的结构。圈量子引力的两个最重要的假设为:
1.广义协变 - 物理学的定律可以用任何的坐标系来表示,这也是广义相对论的基本假设。
2.背景独立 - 不存在可以作为背景的独立不变的度规,坐标系等。
圈量子引力理论也假设量子论的基本原理是正确的。
作为一个数学上严格的不依赖于时空背景的理论框架,认为“场”是客观存在的,把时空看作引力场的一种自然表现,这样广义相对论和量子力学都被归结为对力场的研究(这是一个与弦论者根本不同的出发点:弦论预先假定了这种时空的存在,并生成一种能量的载体——弦,在这样一个时空中振动着)。
圈量子引力理论成功地贯彻了广义相对论的本质思想,导出了时空的不连续性——认为空间是纠缠在一起的圈,这种构成空间的网状联系还会随着物体的相互作用而发生变化。一会儿在这里交叉,一会又在那里交叉。被我们称为“时间”的东西,可能只是这些微小变化串成的串。而且由于不可能存在半变化状态或四分之一变化状态,那么时间必定是以跳跃的形式“流逝”的。于是时间和空间一样也被量化了。
圈量子引力理论给出了不发散的结果, 并且提供了研究量子黑洞物理和量子宇宙学的严格的理论框架。
圈量子引力理论没有奇点,是球面与环面不同伦数学的一个自然推论。而超弦理论是球面奇点数学,认为宇宙约是137亿年前诞生,这个被称为宇宙大爆炸的事件是一切的起点。
有一个叫做“弯曲时空量子场论”的基础领域,它在不经意间一直为圈量子理论这个TOE的候选者提供着丰富的知识源泉,“弯曲时空量子场论”和广义相对论有着天然的联系,著名的广义相对论名家如S.Hawking、R.Penrose等均在这一领域作出了重要的工作,一些成果如 Unruh 效应、 Hawking 辐射、裸奇点等 - 对于深入理解量子引力的某些特征具有重要的价值。彭罗斯发展出的自旋网络就是圈量子理论的基础之一。(参见Robert M. Wald 的 "The History and Present Status of Quantum Field Theory in Curved Spacetime",7th International Conference on the History of General Relativity, 2006)
---------------------------------------------------------------------------------------------------- 非对易几何
关于非对易几何理论,这个理论被认为是另一个可选的统一理论。法国数学家Alain Connes 有一大厚本名为《非对易几何》的著作。欧几里得、高斯、黎曼、嘉当、陈省身等伟大的几何学家都是在对易几何学的框架内进行研究,现在Connes等人已开始建立非对易几何这一新的结构。不过,这个新几何学的目的锁定为发展我们认识世界的物理学。
和弦论一样,Connes的理论也试图从量子力学出发导出相对论的公式;不同的是,弦论者的时空是传统的,而Connes的时空则完全是异乎寻常的——Connes建立一个能够成为算子代数的几何空间,在其中我们清楚地感觉到海森堡提出的概念(用矩阵来表示存在的状态)。
Connes努力地把传统几何学所有的工具都转换到这一新的几何语言中来,并发现了应该如何定义新的距离、差异计算等概念。从1985年开始,Connes将粒子世界中的三种力(电磁力、强力及弱力)对应到非交换时空中的新成分,并且开始研究空间上的“频谱计算”。结果发现:在微观世界标准模型中所涵盖的所有公式都一一再现了!在Connes的空间里,它们都成了时空的某种几何属性!连希格斯玻色子也自发的出现了…… Connes先后和Dirk Kreimer及Matilde Marcolli通过发明的“宇宙伽罗华群”算子成功地解释了对标准模型中重整化的计算,发现重正化其实隐含了一种几何意义。
在《数学物理学百科全书》中,我们可以找到非对易几何学在物理学中的重要应用。
---------------------------------------------------------------------------------------------------- 标度相对论理论(颇具“民科”味道的学说) 爱因斯坦教导我们说时空是弯曲的,而标度相对论的发现者Laurent Nottale 则指出,时空是分形的。Nottale自己出了本书,叫做《Fractal Space-time and Microphysics》,其中他将分形、相对论、量子力学还有非标准分析等等学科融汇贯通,汇聚成标度相对论这样一门独一无二的学说。
Nottale的标度相对论的工作是采用与狭义相对论类比的方法,推导出了标度相对论的规律,且证明仅适用于小于普朗克尺度的量子力学世界。但颇具讽刺意味的是,Nottale并没有直接采用上面的标度相对论的思路来对付量子。他采用了一套全新的做法:首先,从分析分形的性质出发,将非标准分析引入到该框架中,定义了分形的微积分运算;进一步,他利用别人得出的结论:量子路径是一个分形,分维为2,这样把前面定义的关于分形的微积分就扩展到了量子力学上,并自然得出了量子世界中的那些性质,例如:Haisenberg的不确定原理,波粒二相性等等。而且还很恰当地导出重整化群,从而解释量子场论中为什么会有重整化操作,以及一些量子反常。
Nottale的工作仅是一个结合相对性原理和分形几何导出量子力学和量子场论方面的一些结论,缺乏更加深入的工作。要对分形的时空作出定义,并不是一件简单的事情。说到这里,忽然想起来在Connes的那本非对易几何的教科书中,有一个Reimman Mapping的图,就是把一个圆映射到一个分形上。
在物理学发展到今天这个程度,Nottale的学说看起来基础还是太弱了。物理界不愿意接受这一理论,认为它的数学基础并不可靠。
在认识论学者米歇尔•比博尔(michel bitbol)看来:“如果把空间看作一种自然实体,那么确实,对其分形属性的认识就可能会导致我们整个宇宙观的改变。但如果仅仅把空间看作由我们测量方式出发得到的一种构造的话,那么就不要期待标度相对论会给我们带来任何有关自然本身的新消息……”。
【转载】-视频分析技术创新广告模式
by:格致人生
现有模式的弊端
门户网站、广告联盟、传统搜索引擎、视频分享网站是目前互联网视频广告主要的投放渠道。这几种渠道模式各有利弊。
门户网站的品牌和巨大流量使之成为目前视频广告的首选。它以网页为载体,在各个频道页面内放置各种广告位,并按频道的不同对视频广告加以区分。视频广告的播出样式多为弹出、强行覆盖或者浮动式,以CPM为主要计费方式。但这种渠道也有很大的缺陷。一方面,弹出广告框和“暴力”覆盖的模式有可能造成用户反感,并转嫁到广告品牌上。另一方面,目前平均每个点击的成本在5~10元左右,投放成本非常高。
广告联盟一直是互联网广告领域的重要力量,基本上也是中国上百万个人站长赖以生存的主要收入来源。从2006年以来,网络上出现了一批新的专业投放视频广告的广告联盟,例如第一视频、点视科技等。其模式基本类似传统的广告联盟:通过快速整合大量的网页资源,进行视频广告的规模化投放。但基于网页文字投放的广告载体本身,并不适合声色冲击力较强的视频广告。
传统搜索引擎也在尝试寻找适当的方式介入视频广告领域。Google今年宣布开始尝试视频的Google Adsence,百度新近推出了百度TV广告模式,有模仿iCast的浮挂式广告、与第一视频类似的嵌入式广告、与视频网站一样的插片式广告3种表现形式。但百度TV只是在原有“主题推广”联盟的基础上套用了视频广告的外壳,这种以文本内容为主的网页并不是视频广告最理想的载体,而且以个人站长为代表的中小网站也很难得到品牌广告主的认可。
视频网站近两年得以迅猛发展,可是相比各大门户网站和搜索平台,视频网站的广告价值还远没有得到与其流量相当的释放。首先,UGC(用户创造内容)Web2.0的模式,使得视频分享内容良莠不齐,大量低端、庸俗的内容充斥其中,对视频广告主的品牌形象造成极大的风险。其次,由于无法对视频内容进行分析,缺乏精准投放手段,导致广告投放成本高昂、效果低下。
从头部走向长尾
现阶段的网络视频广告仍以高端品牌广告为主。iResearch的报告显示,2006年中国互联网视频广告主为3500多家,其中品牌广告占据了80%的市场份额,客户主要集中在汽车、IT、体育类用品、手机数码、金融、化妆品等行业。
众所周知,依赖于中小企业广告市场的“长尾”,铸就了Google、百度的巨大成功。长尾理论或许值得网络视频广告借鉴。2004年在美国洛杉矶出现了一家叫Spot Runner的公司,加速了人们对于网络视频广告从“头部”走向“长尾”的期待。这家新兴的公司认为,那些从未涉足电视广告的中小企业客户,不是不想投放电视广告,而是无法支付高昂的视频广告制作和电视投放费用。因此该企业把美国1500万家公司分成4000个不同的行业种类,为每个门类制作通用的电视广告模板。他们期待通过这种方式,降低中小企业制作视频广告的成本,努力将视频广告扫进“长尾”。类似的公司还包括Zimmerman和Visible World。
只有把广告从客户招揽、制作到播出整个流程完全放置在互联网中,才是最彻底的“长尾革命”。视频网站YouTube已经在其网页上为企业视频广告开辟了专门的频道。
但是,质量与成本仍然是一对矛盾体。广告并不仅仅是简单的阐述与推送,出色的创意和精美的制作是广告重要的元素,而这必将提高制作成本,抬高了中小企业广告客户进入的门槛。网络视频广告要真正迈入“长尾”市场还需若干年的时间。
从表面切入内部
Google已经借Youtube试水视频广告市场,微软也不甘落后,对视频广告模式做了很多探索。微软的创新在于:对在视频内容中出现的物体进行标注和索引,一旦用户在观看视频的时候,对画面中某个物体感兴趣,则可以通过点击该物体来激发相应的视频广告。虽然微软的这套创新模式目前尚处于实验室阶段,但无疑是对现有广告模式的翻天覆地的变革。
2005年,在美国波士顿新成立了一家Scanscout公司,引起了风险投资者的极大关注。该公司的业务就是利用语音和图像识别技术,分析视频内容片段,然后根据这些内容片断来精准投放视频广告。显然,这个思路沿袭了Google Adsense广告产品的设计思路,只是将Adsense的网页载体通过高深的视频分析技术,换成了视频载体。Scanscout和之后涌现出来的Digitalsmiths、Pluggd等基于对视频内容进行分析,做视频广告精准投放的模式,无疑代表着视频广告发展的一个新方向。
国内的视频内容搜索公司Leexoo,近期也宣布了开始测试其AdGrid视频广告服务。其模式基本类似于微软和Scanscout,但又有所不同。Leexoo可以通过视频内容分析技术,检测过滤色情、暴力等不良视频,从而在深度挖掘视频内容商业价值的同时,保护视频广告主的品牌形象安全。对视频内容深层次的挖掘,使视频资源得以最大限度地发挥商业价值,这种探索在视频广告市场中独树一帜,体现了未来视频广告的一种重要的发展趋势。
其他创新的视频广告模式还包括以ViTrue和Holotof为代表的UGA模式(用户参与广告创意、制作)等。
任何一种媒体形式,都会经历从无到有、快速发展、平缓甚至衰落的过程,用户对媒体广告的态度同样也是从新鲜、习惯到厌烦。每当既有媒体发展到瓶颈时,新兴媒体总会应运而生,同时导致广告行业的一次革命。依托视频分析技术对视频广告模式的创新不一定都会成功,但却是互联网视频广告领域的可喜进步。被不断质疑的互联网视频市场,或许有可能也因此突破困局,向世界证明自己“视频分享新媒体”的价值。正如某著名IT行业评论人所说:“如果事实上你能够使广告更加有目标地投放,那么网络也会变得更有价值。”
眩目的iPhone拥有众多fans,网络视频成为最能体现这一点的广告渠道。
网络视频广告的优势
从人群覆盖上看,电视观众包含各类人群,电视广告很难定位准确;而网络视频广告则可对其受众做更准确的定位,可以针对地域、时间、兴趣等。
从交互性上看,电视广告和楼宇广告采用的是广播的方式,而互联网广告采用的是交互的手段。前者只能达到广告的感知、接收、记忆的阶段,而后者可以让广告主吸引目标受众参与、交流。
从用户体验上看,电视广告和楼宇广告用户是被迫观看广告,用户极易产生反感,而网络视频广告则可以由用户点击选择自己所喜好的广告。
从成本上看,网络视频广告的制作和投放成本极其低廉。
从效果评估上看,电视和楼宇广告只能提供简单的节目收视率、流动人口等粗略数据,而互联网视频广告可以提供全方位的数据反馈,为广告主的投放评估提供数据支撑。
门户网站、广告联盟、传统搜索引擎、视频分享网站是目前互联网视频广告主要的投放渠道。这几种渠道模式各有利弊。
门户网站的品牌和巨大流量使之成为目前视频广告的首选。它以网页为载体,在各个频道页面内放置各种广告位,并按频道的不同对视频广告加以区分。视频广告的播出样式多为弹出、强行覆盖或者浮动式,以CPM为主要计费方式。但这种渠道也有很大的缺陷。一方面,弹出广告框和“暴力”覆盖的模式有可能造成用户反感,并转嫁到广告品牌上。另一方面,目前平均每个点击的成本在5~10元左右,投放成本非常高。
广告联盟一直是互联网广告领域的重要力量,基本上也是中国上百万个人站长赖以生存的主要收入来源。从2006年以来,网络上出现了一批新的专业投放视频广告的广告联盟,例如第一视频、点视科技等。其模式基本类似传统的广告联盟:通过快速整合大量的网页资源,进行视频广告的规模化投放。但基于网页文字投放的广告载体本身,并不适合声色冲击力较强的视频广告。
传统搜索引擎也在尝试寻找适当的方式介入视频广告领域。Google今年宣布开始尝试视频的Google Adsence,百度新近推出了百度TV广告模式,有模仿iCast的浮挂式广告、与第一视频类似的嵌入式广告、与视频网站一样的插片式广告3种表现形式。但百度TV只是在原有“主题推广”联盟的基础上套用了视频广告的外壳,这种以文本内容为主的网页并不是视频广告最理想的载体,而且以个人站长为代表的中小网站也很难得到品牌广告主的认可。
视频网站近两年得以迅猛发展,可是相比各大门户网站和搜索平台,视频网站的广告价值还远没有得到与其流量相当的释放。首先,UGC(用户创造内容)Web2.0的模式,使得视频分享内容良莠不齐,大量低端、庸俗的内容充斥其中,对视频广告主的品牌形象造成极大的风险。其次,由于无法对视频内容进行分析,缺乏精准投放手段,导致广告投放成本高昂、效果低下。
从头部走向长尾
现阶段的网络视频广告仍以高端品牌广告为主。iResearch的报告显示,2006年中国互联网视频广告主为3500多家,其中品牌广告占据了80%的市场份额,客户主要集中在汽车、IT、体育类用品、手机数码、金融、化妆品等行业。
众所周知,依赖于中小企业广告市场的“长尾”,铸就了Google、百度的巨大成功。长尾理论或许值得网络视频广告借鉴。2004年在美国洛杉矶出现了一家叫Spot Runner的公司,加速了人们对于网络视频广告从“头部”走向“长尾”的期待。这家新兴的公司认为,那些从未涉足电视广告的中小企业客户,不是不想投放电视广告,而是无法支付高昂的视频广告制作和电视投放费用。因此该企业把美国1500万家公司分成4000个不同的行业种类,为每个门类制作通用的电视广告模板。他们期待通过这种方式,降低中小企业制作视频广告的成本,努力将视频广告扫进“长尾”。类似的公司还包括Zimmerman和Visible World。
只有把广告从客户招揽、制作到播出整个流程完全放置在互联网中,才是最彻底的“长尾革命”。视频网站YouTube已经在其网页上为企业视频广告开辟了专门的频道。
但是,质量与成本仍然是一对矛盾体。广告并不仅仅是简单的阐述与推送,出色的创意和精美的制作是广告重要的元素,而这必将提高制作成本,抬高了中小企业广告客户进入的门槛。网络视频广告要真正迈入“长尾”市场还需若干年的时间。
从表面切入内部
Google已经借Youtube试水视频广告市场,微软也不甘落后,对视频广告模式做了很多探索。微软的创新在于:对在视频内容中出现的物体进行标注和索引,一旦用户在观看视频的时候,对画面中某个物体感兴趣,则可以通过点击该物体来激发相应的视频广告。虽然微软的这套创新模式目前尚处于实验室阶段,但无疑是对现有广告模式的翻天覆地的变革。
2005年,在美国波士顿新成立了一家Scanscout公司,引起了风险投资者的极大关注。该公司的业务就是利用语音和图像识别技术,分析视频内容片段,然后根据这些内容片断来精准投放视频广告。显然,这个思路沿袭了Google Adsense广告产品的设计思路,只是将Adsense的网页载体通过高深的视频分析技术,换成了视频载体。Scanscout和之后涌现出来的Digitalsmiths、Pluggd等基于对视频内容进行分析,做视频广告精准投放的模式,无疑代表着视频广告发展的一个新方向。
国内的视频内容搜索公司Leexoo,近期也宣布了开始测试其AdGrid视频广告服务。其模式基本类似于微软和Scanscout,但又有所不同。Leexoo可以通过视频内容分析技术,检测过滤色情、暴力等不良视频,从而在深度挖掘视频内容商业价值的同时,保护视频广告主的品牌形象安全。对视频内容深层次的挖掘,使视频资源得以最大限度地发挥商业价值,这种探索在视频广告市场中独树一帜,体现了未来视频广告的一种重要的发展趋势。
其他创新的视频广告模式还包括以ViTrue和Holotof为代表的UGA模式(用户参与广告创意、制作)等。
任何一种媒体形式,都会经历从无到有、快速发展、平缓甚至衰落的过程,用户对媒体广告的态度同样也是从新鲜、习惯到厌烦。每当既有媒体发展到瓶颈时,新兴媒体总会应运而生,同时导致广告行业的一次革命。依托视频分析技术对视频广告模式的创新不一定都会成功,但却是互联网视频广告领域的可喜进步。被不断质疑的互联网视频市场,或许有可能也因此突破困局,向世界证明自己“视频分享新媒体”的价值。正如某著名IT行业评论人所说:“如果事实上你能够使广告更加有目标地投放,那么网络也会变得更有价值。”
眩目的iPhone拥有众多fans,网络视频成为最能体现这一点的广告渠道。
网络视频广告的优势
从人群覆盖上看,电视观众包含各类人群,电视广告很难定位准确;而网络视频广告则可对其受众做更准确的定位,可以针对地域、时间、兴趣等。
从交互性上看,电视广告和楼宇广告采用的是广播的方式,而互联网广告采用的是交互的手段。前者只能达到广告的感知、接收、记忆的阶段,而后者可以让广告主吸引目标受众参与、交流。
从用户体验上看,电视广告和楼宇广告用户是被迫观看广告,用户极易产生反感,而网络视频广告则可以由用户点击选择自己所喜好的广告。
从成本上看,网络视频广告的制作和投放成本极其低廉。
从效果评估上看,电视和楼宇广告只能提供简单的节目收视率、流动人口等粗略数据,而互联网视频广告可以提供全方位的数据反馈,为广告主的投放评估提供数据支撑。
人脸安全认证技术在ATM智能银行的应用
by:格致人生
在不与公安系统的数据库互连的情形下,银行系统自己完全可以维护一个内部的人脸安防管理系统平台,平台上可以管理着四种人脸数据库,即:热心访客数据库,银行卡户主数据库,黑名单数据库,访客人脸样本池。针对到本行所属ATM机取款的人员进行基于人脸的智能分析:
(1)对于恶意损坏ATM机的犯罪分子,作为智能前端的硬盘录像机直接通过人脸检测、人脸跟踪和人脸姿态估计算法,抓拍正面端正的人脸,并把此样本上传至管理系统的黑名单数据库中。在有“人脸身份认证”的需要时,作为基础参考信息;
(2)对于每一个来ATM进行业务交易的访客,作为智能前端的硬盘录像机都会通过人脸检测、人脸跟踪和人脸姿态估计算法,抓拍正面端正的人脸,并把此样本上传至管理系统的访客人脸样本池。对每一个样本给予一个序号的标识。
(3)对于经常光顾ATM的访客,可以在访客人脸样本池的范围内用聚类技术得到一类人脸集合。其对应的人脸样本可以从访客人脸样本池导入到热心访客数据库;
对于不经常光顾ATM的访客,过一段时间他(她)的人脸样本就会从访客人脸样本池中删除,人脸样本池始终保持着更新的状态。
(4)人脸身份认证:在银行系统的后台客户端,当基于高性能服务器的人脸识别引擎开启时,可以: ① 实时分析——把访客人脸样本池中当前最新追加来的人脸(正在与ATM进行交易)与黑名单数据库中的人脸样本进行一对多比对,识别出在当前是否有高危访客造访。一旦发现此人出现在黑名单数据库中,将立即给出报警联动;
② 实时分析——把访客人脸样本池中当前最新追加来的人脸(正在与ATM进行交易)与银行卡户主数据库中的人脸样本进行一对多比对,识别出在当前是银行卡的户主在进行交易。一旦发现交易人非户主本人,将立即 根据触发预警机制;
③ 非实时分析——把访客人脸样本池中的人脸与黑名单数据库中的人脸样本进行多对多比对,识别出在近期是否有高危访客造访。一旦发现有黑名单数据库中的人出现,将给出预警提示;
④ 非实时分析——把热心访客数据库中的人脸与银行卡户主数据库中的人脸样本进行多对多比对,识别那些经常光顾ATM、且交互业务达到一定数额的(此信息来自于银行的业务信息系统)访客。赋予他(她)们VIP银行卡户主的标识。
作者:Henry Huisong Yang
(1)对于恶意损坏ATM机的犯罪分子,作为智能前端的硬盘录像机直接通过人脸检测、人脸跟踪和人脸姿态估计算法,抓拍正面端正的人脸,并把此样本上传至管理系统的黑名单数据库中。在有“人脸身份认证”的需要时,作为基础参考信息;
(2)对于每一个来ATM进行业务交易的访客,作为智能前端的硬盘录像机都会通过人脸检测、人脸跟踪和人脸姿态估计算法,抓拍正面端正的人脸,并把此样本上传至管理系统的访客人脸样本池。对每一个样本给予一个序号的标识。
(3)对于经常光顾ATM的访客,可以在访客人脸样本池的范围内用聚类技术得到一类人脸集合。其对应的人脸样本可以从访客人脸样本池导入到热心访客数据库;
对于不经常光顾ATM的访客,过一段时间他(她)的人脸样本就会从访客人脸样本池中删除,人脸样本池始终保持着更新的状态。
(4)人脸身份认证:在银行系统的后台客户端,当基于高性能服务器的人脸识别引擎开启时,可以: ① 实时分析——把访客人脸样本池中当前最新追加来的人脸(正在与ATM进行交易)与黑名单数据库中的人脸样本进行一对多比对,识别出在当前是否有高危访客造访。一旦发现此人出现在黑名单数据库中,将立即给出报警联动;
② 实时分析——把访客人脸样本池中当前最新追加来的人脸(正在与ATM进行交易)与银行卡户主数据库中的人脸样本进行一对多比对,识别出在当前是银行卡的户主在进行交易。一旦发现交易人非户主本人,将立即 根据触发预警机制;
③ 非实时分析——把访客人脸样本池中的人脸与黑名单数据库中的人脸样本进行多对多比对,识别出在近期是否有高危访客造访。一旦发现有黑名单数据库中的人出现,将给出预警提示;
④ 非实时分析——把热心访客数据库中的人脸与银行卡户主数据库中的人脸样本进行多对多比对,识别那些经常光顾ATM、且交互业务达到一定数额的(此信息来自于银行的业务信息系统)访客。赋予他(她)们VIP银行卡户主的标识。
作者:Henry Huisong Yang
智能电网/电表芯片成创新热点
by:格致人生
从去年上半年开始,智能电表渐渐成为微控制器(MCU)业的应用热点,几大MCU公司竞相发布新产品。不久前,飞思卡尔、ADI和NXP公司上演了新产品秀。
ADI三相电能计量IC精度可达0.1%
有分析人士指出,未来5年,随着智能电网部署的增长,智能电表在全球安装的数量将高达2亿块。在中国,与智能电网相关的5960亿美元经济刺激计划正在实施过程中,预计在未来3至5年内将部署1.7亿块智能电表。而在美国政府为升级本国电网的拨款中,有一部分是用于使13%的美国家庭(1千8百万户家庭)在未来3年之内能装上智能电表。在欧洲,意大利及瑞典已经完成先进计量基础设施 (AMI) 的部署,将所有普通电表更换为智能电表。法国、西班牙、德国和英国预计在未来10年内完成 AMI 部署。
09年12月,美国ADI公司宣布最新推出四款高精度电能计量 IC—ADE7878、ADE7868、ADE7858 及 ADE7854,可用于提高商业、工业及住宅智能电表的精度和性能。
ADI公司能源部门总监 Ronn Kliger说:“在总有功及无功电能的计量方面,这四款产品的精度和动态范围超越了电能表行业 Class 0.2规范的要求。这四款新器件还能以0.1%的精度同时测量无功和有功功率。此外,其中一款产品还具备基波电能测量功能,这对电能质量监测而言至关重要。”
ADE7878、ADE7858及 ADE7854 高精度电能计量 IC为多相配置而设计,包括三线及四线、Y型及delta型。在 1000:1的动态范围内,它们可为有功及无功电能测量提供0.1%的精度;在3000:1的动态范围内,可为有功及无功电能测量提供0.2%的精度。这些新产品还可在1000:1的动态范围内为电流有效值和电压有效值测量提供0.1%的精度。
除了能测量每个相位和零线电能之外,ADE7868及ADE7878还能监测电能质量参数,如SAG、峰值、周期、角度测量及相序等。另一项业界首创就是在保持正常运行的同时,ADE7868和 ADE7878具备各种防窃电功能,以确保正常的工作,这可减少现场求助和电表检修的时间。
飞思卡尔MZ系列MCU专为国网打造
去年下半年,中国国家电网公司对智能电网进行了全新的规划,对单相电表设计提出一系列要求,例如:基本计量功能增加,费控功能复杂,具备多种抄表通讯模式,以及外壳模具统一、电子线路布局布线位置相对固定等。
在充分研究中国国网新标准有关单相电表设计要求的基础上,飞思卡尔推出了MZ系列8位微控制器(MCU)芯片,集成了60kB、96kB或128kB 闪存,提供64引脚LQFP封装。MZ系列微控制器还提供32位处理器芯片,集成256kB闪存。MZ系列中的所有芯片都可以实现64引脚芯片完全兼容,用户无需修改PCB(印制电路板)布线就能进行产品升级。所提供的一站式参考设计(如图1)包含必要的硬件和软件,完全符合中国国网电表新标准,可简化智能电表开发,加快产品上市速度。
ADI三相电能计量IC精度可达0.1%
有分析人士指出,未来5年,随着智能电网部署的增长,智能电表在全球安装的数量将高达2亿块。在中国,与智能电网相关的5960亿美元经济刺激计划正在实施过程中,预计在未来3至5年内将部署1.7亿块智能电表。而在美国政府为升级本国电网的拨款中,有一部分是用于使13%的美国家庭(1千8百万户家庭)在未来3年之内能装上智能电表。在欧洲,意大利及瑞典已经完成先进计量基础设施 (AMI) 的部署,将所有普通电表更换为智能电表。法国、西班牙、德国和英国预计在未来10年内完成 AMI 部署。
09年12月,美国ADI公司宣布最新推出四款高精度电能计量 IC—ADE7878、ADE7868、ADE7858 及 ADE7854,可用于提高商业、工业及住宅智能电表的精度和性能。
ADI公司能源部门总监 Ronn Kliger说:“在总有功及无功电能的计量方面,这四款产品的精度和动态范围超越了电能表行业 Class 0.2规范的要求。这四款新器件还能以0.1%的精度同时测量无功和有功功率。此外,其中一款产品还具备基波电能测量功能,这对电能质量监测而言至关重要。”
ADE7878、ADE7858及 ADE7854 高精度电能计量 IC为多相配置而设计,包括三线及四线、Y型及delta型。在 1000:1的动态范围内,它们可为有功及无功电能测量提供0.1%的精度;在3000:1的动态范围内,可为有功及无功电能测量提供0.2%的精度。这些新产品还可在1000:1的动态范围内为电流有效值和电压有效值测量提供0.1%的精度。
除了能测量每个相位和零线电能之外,ADE7868及ADE7878还能监测电能质量参数,如SAG、峰值、周期、角度测量及相序等。另一项业界首创就是在保持正常运行的同时,ADE7868和 ADE7878具备各种防窃电功能,以确保正常的工作,这可减少现场求助和电表检修的时间。
飞思卡尔MZ系列MCU专为国网打造
去年下半年,中国国家电网公司对智能电网进行了全新的规划,对单相电表设计提出一系列要求,例如:基本计量功能增加,费控功能复杂,具备多种抄表通讯模式,以及外壳模具统一、电子线路布局布线位置相对固定等。
在充分研究中国国网新标准有关单相电表设计要求的基础上,飞思卡尔推出了MZ系列8位微控制器(MCU)芯片,集成了60kB、96kB或128kB 闪存,提供64引脚LQFP封装。MZ系列微控制器还提供32位处理器芯片,集成256kB闪存。MZ系列中的所有芯片都可以实现64引脚芯片完全兼容,用户无需修改PCB(印制电路板)布线就能进行产品升级。所提供的一站式参考设计(如图1)包含必要的硬件和软件,完全符合中国国网电表新标准,可简化智能电表开发,加快产品上市速度。
智能电网趋势明朗化,智能电表从中受益
by:格致人生
《环球表计》信息站报:今年以来,新能源产业备受追捧。但随着大批项目的上马,“新能源过剩说”也引起了市场热议。以风能为例,由于风力发电的特点决定了许多风电场地处偏远,发电并网的线路建设成本高昂,电网公司缺乏意愿去建输电网接风电。也正是由于风电暂时还没有大量接入电网,风能在能源结构中所占的比例还远远不够,因此出现风能过剩的现象。要解决这个问题,就应该把智能电网推上去,对于政府来说,有了坚强的智能电网,可以将风能发电、太阳能发电等可再生能源集成入网,还能保证太阳能及风能发电的稳定性。
在《环球表计》2009年第一、第二期上,分别刊 登了能源专家武建东教授关于“互动电网”的相关研究报告,报告中就指出:人类能源发展面临的第一挑战就是以信息技术彻底改造我们以化石能源为主的能源体系,取而代之的将是以可再生能源为主的创新的能源体系。这就需要我们把传统的电网体系升级为信息社会的水平,最大限度地开发这个电网体系的能源效率。
目前,发展智能电网已经不仅仅只是电网优化创新、与时俱进的单方问题了。它更关乎能源安全以及能源效率的问题;关乎全球变暖的环境问题;关乎不间断、高质量、高可靠性电能需要的电力服务问题等。
世界范围内的国家开始实现智能电网技术来提高能源效率和与可再生能源的合作,这将减少我们的全球碳排放。智能电网主要将更加有效地去管理好电发出来之后的输、送、配这些环节。这是一个巨大的趋势,需要提高各方面的能力。
各国立即上马智能电网项目的理由是,由于人们对于能源,尤其是电力能源的需求是不断的增长的,尤其是在中国。就电力公司等能源供应商来说,他们希望能够对电力的输电和配电这两个环节进行优化,以减少拉闸限电现象的产生。
在美国和欧洲这些相对较发达的国家,智能电网发展充满活力,已经建立起了比较成功的商业模式,有一些电量计量的新的方法,也已经设立起来。并且这种商业模式还在不断的细化,不断的改进当中。同时,在欧洲,智能电网已是欧盟实现其“20-20-20”气候目标的先决条件(即到2020年 欧盟二氧化碳排放量减少20%,将可再生能源在欧洲电网总能源消费中的比例提高20%)。
据有关研究机构估计,以美国为例,为了将现有电网改造为智能电网,对基础设施的改造花费将达数千亿美元,需要的主要设备包括各种先进的传感器、表计与监视系统,基于最新的材料、电力电子与微电子学科研究成果而制造出的各种新型电力系统设施,基于各种先进理论和算法的电力系统分布式智能、高级应用软件,先进的可视化展示、电力系统仿真与培训工具等。有专家估计,全球智能电网组建和软件相关产值可达每年200亿美元。
此外,除了二次设备外,智能元件也是智能电网的重要组成部分,而随着智能电网进一步发展,对超导电缆和智能电表的需求将逐渐增大。在武建东的互动电网研究报告中也指出,据初步估算,2009年起,我国需 要更新百万个以上变电站,将3000万块~5000万块电表更改为智能电表,推动世界上最大的统一电网体系分期实现电网技术的升级。根据政策开放程度,电网还可以开放宽带、电视盒通信等业务,这将是一个比3G业 务更宏大的产业空间,更能拉动内需。
我国智能电网建设的主要受益者是智能电表生产商和二次设备企业。由于智能电表技术相对成熟,配电网络智能化的发展速度将快于输电网络。智能电表生产厂家的业绩会快速增长。
据悉,我国政府据要投资将近100亿美元,用来建 设智能电网,而且是以AMR(自动抄表)为 基础的智能电网。具体来说,中国政府的计划是要在未来五年,在全国范围内安装2.4亿个智能电表。现在中国也有各种各样的标准委员会在为智能电表的通讯制定标准。这也就意着在2012年到2015年之间的三年内,每年中国所新安装的智能电表都将达到8000万 个。从长远来说,考虑到中国的13亿人,中国安装智能电表的总量应该是5亿个,这是一个非常巨大的数字,也意味着中国智能电网的渗透率能达到发达国家的水平。
另外在再生能源方面,中国希望在2020年,能够 把电力生产当中可再生能源发电的份额上升到30%,这几乎是世界上最激进的一个发展可再生能源的一个规划了。要这么做的话,没有智能电网是不可能的。
在我们的智能电表和家里的所有的家电实现了互联之后,就会有双向的信息的交流,我们家里的每一个家电它都会把相应的把信息传输给智能电表,而智能电表接下来会把用户用电的信息传给变电站,变电站再继续把这个信息传给电力公司的数据通信中心。
这里电力公司和家庭用户之间的信息不是单方向的,而是一种双向的。也就是电力公司在掌握了终端用户的电力使用情况之后,可以根据使电力供应和需求之间的情况采取行动,做出一些调节。比如说调峰,什么叫调峰呢?一个时点上,刚好是电力的使用达到了一个最高峰,使用的电网不堪重负。在这种情况下,电力公司掌握了情况之后,就可以是自动的,比如说把各个家庭使用的空调的温度自动上浮2~3℃。相比电力公司只能采取大停电的方式,这样的方式更合理。另外一个还有好处,就是有关电动汽车的使用,人们应该是在晚上的时候给自己的电动汽车去充电,这样就使得电网的负荷发生一些很巧妙的变化。
有了智能电表、智能电网之后,相当于我们电力供应部门,有了很大的自主性和灵活度,它能够根据电力的需求和供应情况进行调节,比如进行调峰。另外,变电站所管辖的、对应的是50~100户家庭。
其实就智能电网来说,它现在不只是一个概念,已经在逐渐变为现实了。
在《环球表计》2009年第一、第二期上,分别刊 登了能源专家武建东教授关于“互动电网”的相关研究报告,报告中就指出:人类能源发展面临的第一挑战就是以信息技术彻底改造我们以化石能源为主的能源体系,取而代之的将是以可再生能源为主的创新的能源体系。这就需要我们把传统的电网体系升级为信息社会的水平,最大限度地开发这个电网体系的能源效率。
目前,发展智能电网已经不仅仅只是电网优化创新、与时俱进的单方问题了。它更关乎能源安全以及能源效率的问题;关乎全球变暖的环境问题;关乎不间断、高质量、高可靠性电能需要的电力服务问题等。
世界范围内的国家开始实现智能电网技术来提高能源效率和与可再生能源的合作,这将减少我们的全球碳排放。智能电网主要将更加有效地去管理好电发出来之后的输、送、配这些环节。这是一个巨大的趋势,需要提高各方面的能力。
智能电网在各国的发展
金融危机爆发后,世界各国宣布的经济刺激计划中,多数涵盖智能电网的建设。例如美国奥巴马政府,便计划在未来几年投资超过40亿美元用于智能电网建设。在中国,国家电网公司已于今年5月向社会公布了其智能电网的发展计划。科技部副部长李学勇上周在国务院新闻发布会上明确表示,随着中国新兴能源振兴规划即将出台,与新能源配套的智能电网也将会得到相应发展。各国立即上马智能电网项目的理由是,由于人们对于能源,尤其是电力能源的需求是不断的增长的,尤其是在中国。就电力公司等能源供应商来说,他们希望能够对电力的输电和配电这两个环节进行优化,以减少拉闸限电现象的产生。
在美国和欧洲这些相对较发达的国家,智能电网发展充满活力,已经建立起了比较成功的商业模式,有一些电量计量的新的方法,也已经设立起来。并且这种商业模式还在不断的细化,不断的改进当中。同时,在欧洲,智能电网已是欧盟实现其“20-20-20”气候目标的先决条件(即到2020年 欧盟二氧化碳排放量减少20%,将可再生能源在欧洲电网总能源消费中的比例提高20%)。
二次设备最先受益
9月17日,在国务院新闻办举行的发布会上,科技部党组书记、副部长李学勇说,在新能源发展方面,要发展智能电网,要解决相应配套的问题。设备制造正是这个配套问题的一部分。有专家指出,智能电网建设将使设备制造厂商从中受益。据有关研究机构估计,以美国为例,为了将现有电网改造为智能电网,对基础设施的改造花费将达数千亿美元,需要的主要设备包括各种先进的传感器、表计与监视系统,基于最新的材料、电力电子与微电子学科研究成果而制造出的各种新型电力系统设施,基于各种先进理论和算法的电力系统分布式智能、高级应用软件,先进的可视化展示、电力系统仿真与培训工具等。有专家估计,全球智能电网组建和软件相关产值可达每年200亿美元。
此外,除了二次设备外,智能元件也是智能电网的重要组成部分,而随着智能电网进一步发展,对超导电缆和智能电表的需求将逐渐增大。在武建东的互动电网研究报告中也指出,据初步估算,2009年起,我国需 要更新百万个以上变电站,将3000万块~5000万块电表更改为智能电表,推动世界上最大的统一电网体系分期实现电网技术的升级。根据政策开放程度,电网还可以开放宽带、电视盒通信等业务,这将是一个比3G业 务更宏大的产业空间,更能拉动内需。
无法预计的智能电表创新空间
智能电网的每个地方都离不开嵌入式处理器、控制器。目前,全世界一共是有14亿支电表,但是只有10%的电表称得上是智能电表,或者是具有互联性、连接性。所以这里的机会是非常大的。我国智能电网建设的主要受益者是智能电表生产商和二次设备企业。由于智能电表技术相对成熟,配电网络智能化的发展速度将快于输电网络。智能电表生产厂家的业绩会快速增长。
据悉,我国政府据要投资将近100亿美元,用来建 设智能电网,而且是以AMR(自动抄表)为 基础的智能电网。具体来说,中国政府的计划是要在未来五年,在全国范围内安装2.4亿个智能电表。现在中国也有各种各样的标准委员会在为智能电表的通讯制定标准。这也就意着在2012年到2015年之间的三年内,每年中国所新安装的智能电表都将达到8000万 个。从长远来说,考虑到中国的13亿人,中国安装智能电表的总量应该是5亿个,这是一个非常巨大的数字,也意味着中国智能电网的渗透率能达到发达国家的水平。
另外在再生能源方面,中国希望在2020年,能够 把电力生产当中可再生能源发电的份额上升到30%,这几乎是世界上最激进的一个发展可再生能源的一个规划了。要这么做的话,没有智能电网是不可能的。
具体实施步骤
智能电表在安装了以后,比如说在一个家庭安装了之后,接下来,还要把智能电表和这个家庭所使用的所有的电器连接起来,这样电表和这些电器之间能够实现通信,能够实现实时的信息的交换。在我们的智能电表和家里的所有的家电实现了互联之后,就会有双向的信息的交流,我们家里的每一个家电它都会把相应的把信息传输给智能电表,而智能电表接下来会把用户用电的信息传给变电站,变电站再继续把这个信息传给电力公司的数据通信中心。
这里电力公司和家庭用户之间的信息不是单方向的,而是一种双向的。也就是电力公司在掌握了终端用户的电力使用情况之后,可以根据使电力供应和需求之间的情况采取行动,做出一些调节。比如说调峰,什么叫调峰呢?一个时点上,刚好是电力的使用达到了一个最高峰,使用的电网不堪重负。在这种情况下,电力公司掌握了情况之后,就可以是自动的,比如说把各个家庭使用的空调的温度自动上浮2~3℃。相比电力公司只能采取大停电的方式,这样的方式更合理。另外一个还有好处,就是有关电动汽车的使用,人们应该是在晚上的时候给自己的电动汽车去充电,这样就使得电网的负荷发生一些很巧妙的变化。
有了智能电表、智能电网之后,相当于我们电力供应部门,有了很大的自主性和灵活度,它能够根据电力的需求和供应情况进行调节,比如进行调峰。另外,变电站所管辖的、对应的是50~100户家庭。
其实就智能电网来说,它现在不只是一个概念,已经在逐渐变为现实了。
【转载】美国智能电网技术和特点
by:格致人生
美国能源部数据显示,虽然目前美国电网的可靠率高达99.97%,但美国仍需每年花费1500亿美元弥补0.03%故障率带来的损失。因此美国有人提出,即使投资上万亿美元,将现有电网升级成智能电网,把剩余0.03%故障率排除在外,美国也能在10年以内收回成本。
美国智能电网发展现状
2009年1月25日,奥巴马上台后,美国白宫发布了《经济复兴计划进度报告》,宣布未来3年以内将为美国家庭安装4000万个智能电表,同时投资40多亿美元推动电网现代化。
2009年6月3日至5日,在美国加州举行的会议上,英特尔公司制定“2030年能源技术、信息技术及电力系统与终端用户负荷互动的智能电网信息互操作导则”(IEEEP2030)。以此推动电力工程、通讯和信息技术的融合,并冀望这个标准成为全球标准。
2009年12月4日,通用电气(中国)有限公司与扬州经济技术开发区在扬州举行签约仪式,在扬州建立智能电网“示范中心”,美国智能电网技术开始进入中国市场。
现在,美国已开始向部分家庭安装带有通讯功能的智能电表(SmartMeter),目标是以家庭为单位,随时监测电力消费和管理,更加有效地实现输电和供电。在推广智能电网的过程中,美国政府让商务部下属的国家标准及技术研究所(NITS)在《能源独立及安全法案》的规定下,评估目前美国所有的智能电网标准、测量方法、技术以及其他的支持服务。
美国智能电网技术特点
美国的智能电网又称统一智能电网,是指将基于分散的智能电网结合成全国性的网络体系。这个体系主要包括:通过统一智能电网实现美国电力网格的智能化,解决分布式能源体系的需要,以长短途、高低压的智能网络联结客户电源;在保护环境和生态系统的前提下,营建新的输电电网,实现可再生能源的优化输配,提高电网的可靠性和清洁性;这个系统可以平衡整合类似美国亚利桑那州的太阳能发电和俄亥俄州的工业用电等跨州用电的需求,实现全国范围内的电力优化调度、监测和控制,从而实现美国整体的电力需求管理,实现美国跨区的可再生能源提供 的平衡。
这个体系的另一个核心就是解决太阳能、氢能、水电能和车辆电能的存储,它可以帮助用户出售多余电力,包括解决电池系统向电网回售富裕电能。实际上,这个体系就是以美国的可再生能源为基础,实现美国发电、输电、配电和用电体系的优化管理。而且美国的这个计划也考虑了将加拿大、墨西哥等地电力整合的合作。
美国发展智能电网重点在配电和用电侧,推动可再生能源发展,注重商业模式的创新和用户服务的提升。它的四个孪生兄弟分别是:高温超导电网、电力储能技术、可再生能源与分布式系统集成(RDSI)和实现传输可靠性及安全控制系统,这个电网发展战略的本质是开发并转型进入“下一代”的电网体系,其战略的核心是先期突破智能电网,之后营建可再生能源和分布式系统集成(RDSI)与电力储能技术,最终集成发展高温超导电网。
智能电网五大基本技术
第一,综合通讯及连接技术,实现建筑物实时控制及信息更新,让电网的每个部分既能“说”又能“听”。第二,传感及计量技术,支持更快更精确的信息反馈,实现用电侧遥控、实时计价管理。第三,先进零部件制造技术,产品用于超导、电力储存、电网诊断等方面的最新研究。第四,先进的控制技术,用于监控电网必要零部件,实现突发事件的快速诊断及快速修复。第五接口改进技术,支持更强大的人为决策功能,让电网运营商和管理商更具远见性和前瞻性。
进展中的技术创新
夏威夷大学的配电管理系统平台(DMS):该能源管理平台将由夏威夷大学开发,它让消费者实现了家庭能源管理,并让发电厂的配电系统得到了升级。该平台将与高级测量体系(AMI)相结合,实时接收用户端的需求反馈(AMI是一个用来测量、收集、储存、分析和运用用户用电信息的完整的网络和系统);同时,它与能源自动化系统结合,实现能源节约。此外,该平台实现了分散电力、储存、电力分配系统中负载量的最优化分配及管理,使分配系统成为一个有机整体,与整个电网中的其他整体更好融合。据悉,该平台将在夏威夷州毛伊岛上的一个变电站使用。
伊利诺伊理工学院的“完美能源系统”项目:“完美能源系统”是能满足每个消费者需求的电力系统,它十分具有弹性。该项目将设计微型电网系统,实现电网中的不同情况的及时回应,同时增加电网可靠性、减少电力需求。研究人员表示,该系统能够应用在任何大都市中,并使消费者真正成为电力市场中的一份子。
西弗吉尼亚州“超级电路”项目:在西弗吉尼亚州,阿勒格尼电力公司(Allegheny Energy)的“超级电路”项目将把先进的监测、控制和保护技术结合在一起,从而增强供电线路的可靠性与安全性。该电网将整合生物柴油发电、能量储存以及AMI和通信网络,迅速地预测、确定并帮助解决网络问题。
圣地亚哥“海滨城市微型智能电网”项目:该微型智能电网的性能是独一无二的,它能在发生大规模电网故障时使电网与电站实现精确隔离,并在故障修复后精确再结合,对电力输出几乎不造成影响。在圣地亚哥,“海滨城市微型智能电网”项目将证明把多种分布式能源与先进的控制和通信方法结合在一起是行之有效的。该项目的目标是提高配电网馈线和变电站等电网组成部分的可靠程度并减低高峰负荷。不管是电站发电还是消费者在家中利用太阳能发电、电力储存都能通过AMI连接到变电站中去,并且高峰负荷不会超过5万千瓦。
此外,科罗拉多州科林斯堡市及该市的公用事业部门也支持多项清洁能源计划,其中一项涉及在5个用户区域内把太阳能和风能等近30种可再生能源结合在一起。该计划与其他一些分布式供电系统共同支持该市一个称为FortZED的零能耗区。
在美国对智能电网的定义中,智能电网有七大特征:
1)自愈
有自愈能力的现代化电网可以发现并对电网的故障做出 反应,快速解决,减少停电时间和经济损失。
2)互动
在现代化电网中,商业、工业和居民等能源消费者可以看到电费价 格、有能力选择最合适自己的供电方案和电价。
3)安全
现代化的电网在建设时就考虑要彻底安全性。
4)提供适应21 世纪需求的电能质量
现代化的电网的不会有电压跌落、电压尖刺、扰动和中断等电能质量问题,适应数据
中心、计算机、电子和自动化生产线的需求。
5)适应所有的电源种类和电能储存方式
现代化的电网允许即插即用地连接 任何电源,包括可再生能源和电能储存设备。
6)可市场化交易
现代化的电网支持持续的全国性的交易,允许地方性与局部 的革新。
7)优化电网资产提高运营效率
现代化电网可以在已建成系统中提供更多的能量,仅需建设少许新的基础设施,花 费很少的运行维护成本。
2009年1月25日,奥巴马上台后,美国白宫发布了《经济复兴计划进度报告》,宣布未来3年以内将为美国家庭安装4000万个智能电表,同时投资40多亿美元推动电网现代化。
2009年6月3日至5日,在美国加州举行的会议上,英特尔公司制定“2030年能源技术、信息技术及电力系统与终端用户负荷互动的智能电网信息互操作导则”(IEEEP2030)。以此推动电力工程、通讯和信息技术的融合,并冀望这个标准成为全球标准。
2009年12月4日,通用电气(中国)有限公司与扬州经济技术开发区在扬州举行签约仪式,在扬州建立智能电网“示范中心”,美国智能电网技术开始进入中国市场。
现在,美国已开始向部分家庭安装带有通讯功能的智能电表(SmartMeter),目标是以家庭为单位,随时监测电力消费和管理,更加有效地实现输电和供电。在推广智能电网的过程中,美国政府让商务部下属的国家标准及技术研究所(NITS)在《能源独立及安全法案》的规定下,评估目前美国所有的智能电网标准、测量方法、技术以及其他的支持服务。
美国智能电网技术特点
美国的智能电网又称统一智能电网,是指将基于分散的智能电网结合成全国性的网络体系。这个体系主要包括:通过统一智能电网实现美国电力网格的智能化,解决分布式能源体系的需要,以长短途、高低压的智能网络联结客户电源;在保护环境和生态系统的前提下,营建新的输电电网,实现可再生能源的优化输配,提高电网的可靠性和清洁性;这个系统可以平衡整合类似美国亚利桑那州的太阳能发电和俄亥俄州的工业用电等跨州用电的需求,实现全国范围内的电力优化调度、监测和控制,从而实现美国整体的电力需求管理,实现美国跨区的可再生能源提供 的平衡。
这个体系的另一个核心就是解决太阳能、氢能、水电能和车辆电能的存储,它可以帮助用户出售多余电力,包括解决电池系统向电网回售富裕电能。实际上,这个体系就是以美国的可再生能源为基础,实现美国发电、输电、配电和用电体系的优化管理。而且美国的这个计划也考虑了将加拿大、墨西哥等地电力整合的合作。
美国发展智能电网重点在配电和用电侧,推动可再生能源发展,注重商业模式的创新和用户服务的提升。它的四个孪生兄弟分别是:高温超导电网、电力储能技术、可再生能源与分布式系统集成(RDSI)和实现传输可靠性及安全控制系统,这个电网发展战略的本质是开发并转型进入“下一代”的电网体系,其战略的核心是先期突破智能电网,之后营建可再生能源和分布式系统集成(RDSI)与电力储能技术,最终集成发展高温超导电网。
智能电网五大基本技术
第一,综合通讯及连接技术,实现建筑物实时控制及信息更新,让电网的每个部分既能“说”又能“听”。第二,传感及计量技术,支持更快更精确的信息反馈,实现用电侧遥控、实时计价管理。第三,先进零部件制造技术,产品用于超导、电力储存、电网诊断等方面的最新研究。第四,先进的控制技术,用于监控电网必要零部件,实现突发事件的快速诊断及快速修复。第五接口改进技术,支持更强大的人为决策功能,让电网运营商和管理商更具远见性和前瞻性。
进展中的技术创新
夏威夷大学的配电管理系统平台(DMS):该能源管理平台将由夏威夷大学开发,它让消费者实现了家庭能源管理,并让发电厂的配电系统得到了升级。该平台将与高级测量体系(AMI)相结合,实时接收用户端的需求反馈(AMI是一个用来测量、收集、储存、分析和运用用户用电信息的完整的网络和系统);同时,它与能源自动化系统结合,实现能源节约。此外,该平台实现了分散电力、储存、电力分配系统中负载量的最优化分配及管理,使分配系统成为一个有机整体,与整个电网中的其他整体更好融合。据悉,该平台将在夏威夷州毛伊岛上的一个变电站使用。
伊利诺伊理工学院的“完美能源系统”项目:“完美能源系统”是能满足每个消费者需求的电力系统,它十分具有弹性。该项目将设计微型电网系统,实现电网中的不同情况的及时回应,同时增加电网可靠性、减少电力需求。研究人员表示,该系统能够应用在任何大都市中,并使消费者真正成为电力市场中的一份子。
西弗吉尼亚州“超级电路”项目:在西弗吉尼亚州,阿勒格尼电力公司(Allegheny Energy)的“超级电路”项目将把先进的监测、控制和保护技术结合在一起,从而增强供电线路的可靠性与安全性。该电网将整合生物柴油发电、能量储存以及AMI和通信网络,迅速地预测、确定并帮助解决网络问题。
圣地亚哥“海滨城市微型智能电网”项目:该微型智能电网的性能是独一无二的,它能在发生大规模电网故障时使电网与电站实现精确隔离,并在故障修复后精确再结合,对电力输出几乎不造成影响。在圣地亚哥,“海滨城市微型智能电网”项目将证明把多种分布式能源与先进的控制和通信方法结合在一起是行之有效的。该项目的目标是提高配电网馈线和变电站等电网组成部分的可靠程度并减低高峰负荷。不管是电站发电还是消费者在家中利用太阳能发电、电力储存都能通过AMI连接到变电站中去,并且高峰负荷不会超过5万千瓦。
此外,科罗拉多州科林斯堡市及该市的公用事业部门也支持多项清洁能源计划,其中一项涉及在5个用户区域内把太阳能和风能等近30种可再生能源结合在一起。该计划与其他一些分布式供电系统共同支持该市一个称为FortZED的零能耗区。
在美国对智能电网的定义中,智能电网有七大特征:
1)自愈
有自愈能力的现代化电网可以发现并对电网的故障做出 反应,快速解决,减少停电时间和经济损失。
2)互动
在现代化电网中,商业、工业和居民等能源消费者可以看到电费价 格、有能力选择最合适自己的供电方案和电价。
3)安全
现代化的电网在建设时就考虑要彻底安全性。
4)提供适应21 世纪需求的电能质量
现代化的电网的不会有电压跌落、电压尖刺、扰动和中断等电能质量问题,适应数据
中心、计算机、电子和自动化生产线的需求。
5)适应所有的电源种类和电能储存方式
现代化的电网允许即插即用地连接 任何电源,包括可再生能源和电能储存设备。
6)可市场化交易
现代化的电网支持持续的全国性的交易,允许地方性与局部 的革新。
7)优化电网资产提高运营效率
现代化电网可以在已建成系统中提供更多的能量,仅需建设少许新的基础设施,花 费很少的运行维护成本。
【转载】欧美智能电网发展的特点及启示
by:格致人生
欧美智能电网发展的特点及启示
国网能源研究院能源统计与信息研究所
宋卫东 周原冰
基本情况
为充分利用非洲北部沙漠地区丰富的太阳能和风能资源,满足地中海地区和欧洲大陆的电力需求,继智能电网后,欧洲于2007年提出了建设超级智能电网(Super
Smart
Grid)的构想。欧洲超级智能电网计划利用瑞士等欧洲大陆国家的抽水蓄能电站储存非洲太阳能和风能发电的电力,在更大范围内平衡风电和太阳能发电,从而增加了系统的稳定性,减少了储能的需求。超级智能电网将新建密集的高压直流线路与目前已有的各国交流电网融合,将目前松散联系的欧洲电力市场构建为欧洲统一电力市场,实现北非国家与欧洲电网的互联,使电力系统更加可靠、电价更为低廉。预计北非输送给欧洲的电力将达到500万千瓦,初步估算需要资金100
亿~250亿欧元。
美国统一国家智能电网(unified National Smart
Grid)由美国前副总统戈尔于2008年11月提出,设想为联接美国国内各区域电网,实现风能、太阳能等可再生能源电力远距离、大规模输送。美国统一国家智能电网将形成“电力高速公路”,实现美国跨州及全国范围内可再生能源电力的优化调度、监测和控制,从而实现美国全国范围的电力需求管理。统一智能电网不是简单的区域电网间点对点的直流输电并辅以智能通信手段,而是具有众多开放节点的拓扑结构,每个节点都是小型智能电网。
特点分析
欧美国家在发展智能电网方面主要基于本国的国情,但侧重点有所不同。欧洲国家由于传统化石能源短缺,风电和太阳能发电等可再生能源发电得以快速发展,解决风电等可再生能源的并网发电、减少温室气体排放成为促进欧洲智能电网建设的主要驱动力。随着欧洲统一电力市场的建设和各国电力市场的开放,电力公司面临较大的市场压力,需提高用户满意度,争取更多的用户,因此加强与用户的互动、降低电价成为欧洲智能电网建设的重点之一。美国能源资源相对丰富,发展智能电网主要原因是提高供电可靠性、避免发生类似美加“8.14”大停电事故。此外,应对气候变化挑战,摆脱对传统化石能源的依赖,充分利用可再生能源替代传统化石能源也是其重要的驱动力。
在发展智能电网,满足可再生能源上网发电方面,欧美国家的电源构成相对合理,具备较好的接纳具有间歇性和随机性发电特性的可再生能源发电的条件和能力。欧美电网中燃气发电占据较大比重(如美国约20%、德国约11%、英国约40%),电网具有良好的调峰能力。此外欧美国家常规水电资源已基本完成开发,常规水电和抽水蓄能装机在电源构成中占据一定的比例,有利于对风电等可再生能源的大规模开发和建设。
在技术层面,欧洲智能电网主要采取为用户安装智能电表、发展电动汽车进行储能及开发风电储能装置等技术。美国智能电网除采用上述技术措施外,加大了利用现代信息通信技术对电网的改造力度,如美国PJM电网公司在其电网中共安装了15套相量测量装置,用以实现电网实时数据采集、设备控制、测量、参数调节以及各类信号报警功能。
欧洲超级智能电网和美国统一国家智能电网的提出是欧美国家以配电侧为重点的智能电网的进一步发展,以输电侧智能电网建设和可再生能源发电基地的大规模开发利用为重点。两者具有以下几方面的共同特点:一是充分利用风电和太阳能发电等可再生能源发电基地向负荷中心远距离大容量输电;二是在较大范围内充分利用不同地区的负荷差异,与燃气电站、常规水电及抽水蓄能电站等调峰电源进行错峰、调峰和水火互济、互补,克服了可再生能源发电的随机性和间歇性;三是以高压直流或特高压直流进行远距离大容量输送,结合区域交流电网组成骨干网架。
对我国的启示
1.各国智能电网的发展模式主要取决于本国国情和电网现状
欧美发达国家经过过去的高速发展,电力需求基本饱和,电网网架稳定、成熟,具备较为充裕的输配电供应能力,新建电网规模有限,电力公司主要面临用户自由选择供电商和小型分布式电源电力送出的压力,智能电网建设首先从配电侧开始。美国电网受几次大停电的影响,智能电网建设充分考虑了电网的现代化改造和分布式可再生能源上网的需求。欧美国家在智能电网的基础上,在更广阔的地域范围内考虑了可再生能源基地的规模化开发和电力的远距离输送,在输电侧进一步提出了欧洲超级智能电网和统一国家智能电网。
我国电网建设起步晚,长期以来电力发展存在“重发轻供”问题,电网网架薄弱。特别是改革开发以来,我国经济快速发展,GDP年均增长达到9.8%,发电装机快速发展,年均新增装机7000万千瓦,新增装机以大型水电、煤电为主,规划中或建设中的风电基地地处西北、东北和华北偏远地区,与负荷中心逆向分布,迫切需要远距离大容量输电线路和骨干网架的建设,智能电网的建设应首先解决水电、煤电及风电等可再生能源大容量、远距离输送问题。我国智能电网的发展应以特高压电网为骨干网架、各级电网协调发展的坚强网架为基础,涵盖发、输、变、配、用电和调度各环节。
2.风电等可再生能源发电大规模上网需要建设配套的调峰电源
欧美国家装机构成中,燃气发电和抽水蓄能装机占据一定比例,调峰性能良好,有利于可再生能源的上网发电。我国电网装机以煤电为主,水电装机容量以径流式为主,天然气发电比重很低,缺乏调峰容量。随着我国风电的大规模开发,系统面临较大的调峰压力,需要建设配套的调峰电源满足可再生能源大规模上网发电的需求。
我国风电开发主要集中在东北、西北、华北地区,当地负荷水平低、电网规模小、风电就地消纳能力有限,大规模开发无法在省网或区域电网范围内进行消纳,需要与火电“打捆”送出,在较大范围内进行消纳平衡。
近年来,我国抽水蓄能电站尽管有所发展,但装机比例与欧美国家相比仍存在较大差距。迫切需要在有条件的地区建设配套的抽水蓄能电站等调峰电源,解决风电大规模开发带来的系统安全稳定问题。
电动汽车作为清洁交通工具和移动储能装置,近年来受到普遍重视,世界主要电力企业均开展了相关的研究和示范应用。如美国PJM电网中已出现能源公司利用电动汽车电池储能参与电网调峰的案例。我国电网企业应加大电动汽车储能设备和大容量储能装置的研发示范力度,积极促进可再生能源发电上网,促进智能电网建设。
3.智能电网的发展有利于促进我国分布式可再生能源的发展
欧美国家天然气管网密集分布,以燃料电池和燃气冷热电三联供、风能、太阳能等多种形式为代表的分布式发电得以广泛应用,解决这些分布式电源的上网发电问题成为智能电网发展的重要驱动因素。
我国天然气供应紧张,燃气发电比重相对欧美国家很低,长远考虑不会有大的变化。发展以风能、太阳能为代表的分布式发电有助于缓解我国能源资源不足和供电紧张局面,满足低碳经济的发展和节能减排的要求。智能电网通过构建透明开放的智能化控制管理互动平台,为各种分布式可再生能源和储能设备的自由接入提供了便利,将有效促进我国分布式可再生能源的高效开发和有效利用。
受到一些评论的鼓励,我最终还是决定在这里写一些关于如何安排时间的问题。其实,有这个打算,已经有一段时间了,可就我自己的情况而言,这方面也还在摸索(读者应该看看我等着写的论文排了多少!)而且很多想法未必成熟。(已经有一些经验写在advice on writing papers,比如page on rapid
prototyping)而且,我的一些个人经验恐怕也不能对所有人通通适用,因为每个人都有不同的性格及工作状态。欢迎大家把自己的想法啊,经验啊,或者建议在评论中写出来。(其实,即使我自己的经验,我有时候也不能严格的遵照,挺遗憾的。)
这些经验并不系统,我慢慢的叙述如下。
首先,我足够的幸运,自己的很多优秀的合作者都在我们的合作中付出了大量的心血。比如最近在我博客大家所见到的论文,很多都在很大的程度上是我的合作者的辛勤劳作成果。一般来讲,几个人合作时,虽然常常花费的时间要多一些,但每个人实际花费的力气却惊人得少,而文章的质量却更高。我发现自己可以同时与很多人在不同的工作中合作(因为常常他们为主,或者该工作实际上在等待进一步发展。)可在我独自写论文的时候,我却只能同时只做一件工作。
由于一些学院时间的规定,夏季时有很多工作要收尾,工作量比其他任何时候都多。这些工作都已花了我很长时间了(比如,我很快就要完成一篇论文。在这篇论文上,我们已经花费了三四年;从2000年开始,我在关于波映射的全局正则问题(the global regularity problem for wave maps problem)上已经断断续续的花费了8年之久。)所以当一篇论文一个星期就出现时可不是说,从有想法到真正写出来,仅仅花费了一个星期。其实整个漫长过程往往是不为人知的。
另外,我解决严肃数学问题的能力常常有起伏,甚至每天都有区别。有时候我可以在一个问题上连续想一个小时;而有时我更适合去和合作者们的草稿式里的想法写成具体的细节;另一些时候,我觉得自己只能收收邮件,改改错,甚至打个盹,散散步。我觉得非常重要的一点是应该根据自己的状态变化来调整自己的工作安排。如果我有整个下午,同时又有很好的状态,我可能就会关掉办公室门,关掉网络,静下心来写这篇苦思已久的论文;而状态不行的时候,我就看看这一周的e- mail,投几篇论文,写写blog。总之我要做些跟精力、热情高低相配的工作。做数学有一点幸运的地方,再大部分的工作上我可以自由安排时间(但讲课是一个非常重要的例外,我必须围绕讲课的固定时间来安排)。能够准确的判断自己在某个时段的工作能力并对接下来的时间(比如这一天剩下的时间)做估计益处很多。无论是太过自信,还是太不自信,在选择具体的工作内容的时候都会带来低效的后果。(我在这两方面可以说都有反面的经验。)
类似的。我有时会有一大堆事情,长度,复杂性,难度都不同。我把这堆问题写在“要做”的清单之中,如果其中有某个问题需要很细致的思考的话,我会完全排除掉其他干扰,只将注意力放在这一个问题上,其他的能拖后的就拖后,能放弃的就放弃掉;只有在各项工作都不会耗费我很多时间的情况下,我才会同时在不同方面工作。(而且,我还在这些工作中都没有什么灵感。)常常发生的情况是,这些任务要比我预想的难,需要更多的精力、时间或是耐心才能完成。这时你就必须要找到一个合适的“休息点”(比如,证明一篇论文中的关键命题;写下讨论中的一个想法,在黑板上写下某个灵感,或者把一个论文的草稿完成到具体的细节。)把这件工作先放一放,等到回来的时候依然能够很顺利地从断点处直接继续原来的工作。应当避免在一件工作完成一半的时候就停下来,没有找到合适的“休息点”。结果要么这件工作半途而废,要么留在脑袋中不能彻底忘掉,影响到其他的工作,而当你再次把这个问题捡起来的时候,常常要从前面的某个地方重新开始思考,浪费时间。但是也没必要拿到一个任务就一次性全部完成,只要找到合适的暂停的地方就好。举一个俗气一些的例子:我在写信的时候(一般都是我工作状态较差,不能去做严肃的数学问题的时候),我会写完并打印好,装到信封之中,然后就把它们放在固定的地方,一般不会马上就寄出去(包括很多类似的东西都放在一起)。直到我“固定的地方”堆满了文件,而我又没有什么其他事好做的时候,我才会统一把他们处理掉。
现代文字处理的优点是任何时候都可以停下来,保存草稿,又很容易找个时间继续。这个blog就是这样。我非常惊叹于在计算机时代之前的那些数学家们,他们居然能够写出如此高质量的论文,甚至是厚厚的一本书。而我即使有秘书的帮助,也会觉得这件事相当困难。
跟所谓寻找“休息点”相关的一点就是要学会分割大任务,将他们变成若干个小问题,每个问题又有很好的独立性以及自洽性。最好不过就是每个小问题都能有他自己的意义。举一个例子,我是完全不大可能一次性完整的写出关于庞加莱猜想的证明,而当我把它们分成了19个部分之后,这些部分都相对可以很好的处理,而且又都有其独立存在的价值。(而且,我还发现,把自己逼到悬崖边上也常常很有效。我提前宣布要讲庞加莱猜想的证明,这给我带来很多动力,不至于半途而废。)
(译者注: lectures on the Poincaré conjecture 是陶教授今年的一门博士课程,课程以著名的Perelman的三篇论文,田刚的500页的书,以及朱熹平,曹怀东的300页的论文为教材。由于课程非常艰深,因此上课的具体要求十分简单,只要坚持听课就好,没有任何的作业或者考试要求。这门课的主页以及所有讲义在陶教授的博客上可以看到,链接在这里。)
有时应当花费大段的时间来学习某种技术,我们会在将来不断使用这些技术。其中一个很好的例子就是数学中的latex编辑软件。如果你打算写很多论文,那就应该花些时间仔细研究一下这个软件,给自己以后的工作带来方便。好好的学习一下譬如怎么画图怎么做表等等。最近,我试图利用宏定义的方法将标准的 latex码(如\begin{theorem} … \end{theorem} \begin{proof} … \end{proof}等等)简化,节约了击键次数。当然每次节约的时间很少,但累计起来以后效果就会不同。而且,在工作的时候如果有效率很高的感觉,人也会精神抖擞,士气高涨。(写长论文的时候就能有体会。)
但在另一些情况下,花时间学习一种技能反而会对推迟,延误一些任务,有时甚至放下去做其他的工作。并不是所有的事情都同样重要。面对一个给定的任务,如果一个人要等到自己的技能足够纯熟,或是发生了某件事情使得这个任务变得不再那么重要,那么这个工作显然就变得简单了。比如,我目前关于波映射的论文( papers on wave maps)被延误了好些年,主要是因为我自己没能坚持。然而回想起来,我看到把论文放在那一段时间也有不错的方面。当初我计划中的方法在技术上简直是个噩梦。真的很有必要等待合适的工具出现,等待对这个领域理解的加深,然后再对问题有更深刻更有效的处理。 [也许这篇文章本身就是一个很好的例子。在我的博客中,还有很多的文章草稿我觉得还不成熟,至少现在还不是露面的时候。它们还在等待进一步的修改。并不是所有的想法或者话题都能够顺利完成,变成一个有意义的结果,参考我的另一篇“利用垃圾箱”。(use the wastebasket)]
我最后的一个建议就是在制定一个计划之后要尽最大努力坚持下去,一个不能全心投入的计划还不如干脆没有计划。我的计划包括我自己的PDA和笔记本,我的 e-mail同步。我的各种计划和办公室中其他的设计好的东西保持一致。我还有一个“保留的”黑板,上面写得东西也许只有我自己能完全明白。我并不想在这里把这些写的很详细。总之,我已经很习惯于我的这些计划,而且到目前为止一切都很好(尽管我可不希望有人把我的黑板擦干净!).选择怎样的计划显然是一个非常隐私的事情,我当然也不太可能对每个人给出最好的建议,只能讲讲自己正在实施的方法.我认为这些方法给我争取到了了很多时间;我不用花费精力去考虑自己在周二下午3点钟该做些什么;为了目的A,B,C,在X,Y,Z方面都需要做些什么,这样我可以投入更多的精力于理解数学本身,抑或证明一个有难度的命题,或者其他什么的工作. [我还发现,当完成计划中的任务时所带来的心理上的舒适感也会带来动力,不然,有些工作可能会由于没有兴致而最终搁置。]
哦,最后还有一条:有时又需要及时放弃自己的规则而容许有效地调整。比如说,当我在午饭时(随便抓些东西吃吃)为下午的工作做计划时,有时会被同事或某个访问者所打断,结果要出去吃饭。结果常常发生的情况是,在这顿饭上我得到的比在办公室中更多更好(在数学上或者在其他方面),尽管不是按我事先所预料的方式。而且这个过程常常更令人愉快 (有时候,脱离会议讲座甚至脱离会议本身去做自己的论文也会有相同效果)
这些经验并不系统,我慢慢的叙述如下。
首先,我足够的幸运,自己的很多优秀的合作者都在我们的合作中付出了大量的心血。比如最近在我博客大家所见到的论文,很多都在很大的程度上是我的合作者的辛勤劳作成果。一般来讲,几个人合作时,虽然常常花费的时间要多一些,但每个人实际花费的力气却惊人得少,而文章的质量却更高。我发现自己可以同时与很多人在不同的工作中合作(因为常常他们为主,或者该工作实际上在等待进一步发展。)可在我独自写论文的时候,我却只能同时只做一件工作。
由于一些学院时间的规定,夏季时有很多工作要收尾,工作量比其他任何时候都多。这些工作都已花了我很长时间了(比如,我很快就要完成一篇论文。在这篇论文上,我们已经花费了三四年;从2000年开始,我在关于波映射的全局正则问题(the global regularity problem for wave maps problem)上已经断断续续的花费了8年之久。)所以当一篇论文一个星期就出现时可不是说,从有想法到真正写出来,仅仅花费了一个星期。其实整个漫长过程往往是不为人知的。
另外,我解决严肃数学问题的能力常常有起伏,甚至每天都有区别。有时候我可以在一个问题上连续想一个小时;而有时我更适合去和合作者们的草稿式里的想法写成具体的细节;另一些时候,我觉得自己只能收收邮件,改改错,甚至打个盹,散散步。我觉得非常重要的一点是应该根据自己的状态变化来调整自己的工作安排。如果我有整个下午,同时又有很好的状态,我可能就会关掉办公室门,关掉网络,静下心来写这篇苦思已久的论文;而状态不行的时候,我就看看这一周的e- mail,投几篇论文,写写blog。总之我要做些跟精力、热情高低相配的工作。做数学有一点幸运的地方,再大部分的工作上我可以自由安排时间(但讲课是一个非常重要的例外,我必须围绕讲课的固定时间来安排)。能够准确的判断自己在某个时段的工作能力并对接下来的时间(比如这一天剩下的时间)做估计益处很多。无论是太过自信,还是太不自信,在选择具体的工作内容的时候都会带来低效的后果。(我在这两方面可以说都有反面的经验。)
类似的。我有时会有一大堆事情,长度,复杂性,难度都不同。我把这堆问题写在“要做”的清单之中,如果其中有某个问题需要很细致的思考的话,我会完全排除掉其他干扰,只将注意力放在这一个问题上,其他的能拖后的就拖后,能放弃的就放弃掉;只有在各项工作都不会耗费我很多时间的情况下,我才会同时在不同方面工作。(而且,我还在这些工作中都没有什么灵感。)常常发生的情况是,这些任务要比我预想的难,需要更多的精力、时间或是耐心才能完成。这时你就必须要找到一个合适的“休息点”(比如,证明一篇论文中的关键命题;写下讨论中的一个想法,在黑板上写下某个灵感,或者把一个论文的草稿完成到具体的细节。)把这件工作先放一放,等到回来的时候依然能够很顺利地从断点处直接继续原来的工作。应当避免在一件工作完成一半的时候就停下来,没有找到合适的“休息点”。结果要么这件工作半途而废,要么留在脑袋中不能彻底忘掉,影响到其他的工作,而当你再次把这个问题捡起来的时候,常常要从前面的某个地方重新开始思考,浪费时间。但是也没必要拿到一个任务就一次性全部完成,只要找到合适的暂停的地方就好。举一个俗气一些的例子:我在写信的时候(一般都是我工作状态较差,不能去做严肃的数学问题的时候),我会写完并打印好,装到信封之中,然后就把它们放在固定的地方,一般不会马上就寄出去(包括很多类似的东西都放在一起)。直到我“固定的地方”堆满了文件,而我又没有什么其他事好做的时候,我才会统一把他们处理掉。
现代文字处理的优点是任何时候都可以停下来,保存草稿,又很容易找个时间继续。这个blog就是这样。我非常惊叹于在计算机时代之前的那些数学家们,他们居然能够写出如此高质量的论文,甚至是厚厚的一本书。而我即使有秘书的帮助,也会觉得这件事相当困难。
跟所谓寻找“休息点”相关的一点就是要学会分割大任务,将他们变成若干个小问题,每个问题又有很好的独立性以及自洽性。最好不过就是每个小问题都能有他自己的意义。举一个例子,我是完全不大可能一次性完整的写出关于庞加莱猜想的证明,而当我把它们分成了19个部分之后,这些部分都相对可以很好的处理,而且又都有其独立存在的价值。(而且,我还发现,把自己逼到悬崖边上也常常很有效。我提前宣布要讲庞加莱猜想的证明,这给我带来很多动力,不至于半途而废。)
(译者注: lectures on the Poincaré conjecture 是陶教授今年的一门博士课程,课程以著名的Perelman的三篇论文,田刚的500页的书,以及朱熹平,曹怀东的300页的论文为教材。由于课程非常艰深,因此上课的具体要求十分简单,只要坚持听课就好,没有任何的作业或者考试要求。这门课的主页以及所有讲义在陶教授的博客上可以看到,链接在这里。)
有时应当花费大段的时间来学习某种技术,我们会在将来不断使用这些技术。其中一个很好的例子就是数学中的latex编辑软件。如果你打算写很多论文,那就应该花些时间仔细研究一下这个软件,给自己以后的工作带来方便。好好的学习一下譬如怎么画图怎么做表等等。最近,我试图利用宏定义的方法将标准的 latex码(如\begin{theorem} … \end{theorem} \begin{proof} … \end{proof}等等)简化,节约了击键次数。当然每次节约的时间很少,但累计起来以后效果就会不同。而且,在工作的时候如果有效率很高的感觉,人也会精神抖擞,士气高涨。(写长论文的时候就能有体会。)
但在另一些情况下,花时间学习一种技能反而会对推迟,延误一些任务,有时甚至放下去做其他的工作。并不是所有的事情都同样重要。面对一个给定的任务,如果一个人要等到自己的技能足够纯熟,或是发生了某件事情使得这个任务变得不再那么重要,那么这个工作显然就变得简单了。比如,我目前关于波映射的论文( papers on wave maps)被延误了好些年,主要是因为我自己没能坚持。然而回想起来,我看到把论文放在那一段时间也有不错的方面。当初我计划中的方法在技术上简直是个噩梦。真的很有必要等待合适的工具出现,等待对这个领域理解的加深,然后再对问题有更深刻更有效的处理。 [也许这篇文章本身就是一个很好的例子。在我的博客中,还有很多的文章草稿我觉得还不成熟,至少现在还不是露面的时候。它们还在等待进一步的修改。并不是所有的想法或者话题都能够顺利完成,变成一个有意义的结果,参考我的另一篇“利用垃圾箱”。(use the wastebasket)]
我最后的一个建议就是在制定一个计划之后要尽最大努力坚持下去,一个不能全心投入的计划还不如干脆没有计划。我的计划包括我自己的PDA和笔记本,我的 e-mail同步。我的各种计划和办公室中其他的设计好的东西保持一致。我还有一个“保留的”黑板,上面写得东西也许只有我自己能完全明白。我并不想在这里把这些写的很详细。总之,我已经很习惯于我的这些计划,而且到目前为止一切都很好(尽管我可不希望有人把我的黑板擦干净!).选择怎样的计划显然是一个非常隐私的事情,我当然也不太可能对每个人给出最好的建议,只能讲讲自己正在实施的方法.我认为这些方法给我争取到了了很多时间;我不用花费精力去考虑自己在周二下午3点钟该做些什么;为了目的A,B,C,在X,Y,Z方面都需要做些什么,这样我可以投入更多的精力于理解数学本身,抑或证明一个有难度的命题,或者其他什么的工作. [我还发现,当完成计划中的任务时所带来的心理上的舒适感也会带来动力,不然,有些工作可能会由于没有兴致而最终搁置。]
哦,最后还有一条:有时又需要及时放弃自己的规则而容许有效地调整。比如说,当我在午饭时(随便抓些东西吃吃)为下午的工作做计划时,有时会被同事或某个访问者所打断,结果要出去吃饭。结果常常发生的情况是,在这顿饭上我得到的比在办公室中更多更好(在数学上或者在其他方面),尽管不是按我事先所预料的方式。而且这个过程常常更令人愉快 (有时候,脱离会议讲座甚至脱离会议本身去做自己的论文也会有相同效果)
【转载】:规范理论的重整化
by:格致人生
规范理论的重整化
- 作者:Gerard 't Hooft 译者:卢昌海 -
译者序:
本文依据 Gerard 't Hooft 的 "The Glorious Days of Physics - Renormalization of Gauge Theories" (Erice Lecture Notes, 1998) 所译。 't Hooft 是一位杰出的理论物理学家, 曾因 “阐明了电弱相互作用的量子结构” 与他当年的导师 Martinus Veltman 共同获得 1999 年的 Nobel 物理学奖。 本文的标题 “规范理论的重整化” 所代表的是 't Hooft 一生最杰出的贡献之一 (也是瑞典皇家科学院所用的 “阐明了电弱相互作用的量子结构” 这一含糊其辞的表述背后的主要含义)。 本文的原文共分七节, 涵盖了标准模型建立过程中的许多重大理论进展。 本译文包含了其中与 “规范理论的重整化” 这一主题关系紧密的前四节 (约占全文篇幅的 2/3)。 在许多方面本文与 S. Weinberg 的 标准模型简史 可互为补充。 与 标准模型简史 的译文一样 (理由也一样), 本译文也略去了原文所引的参考文献 (共计百余篇, 多数为原始文献)。
1. 史前 (≈1947-1969): 量子场论之死
在经历了将发散积分替换为实验可观测的物理量 (如质量及电荷) 所带来的十余年的极大兴奋之后, 新的看似足以妨碍对重整化问题作任何进一步理解的严重困难出现了。 在六十年代, 已知的可重整量子场论主要有两种原型:
1953 年, Peterman 与 Stueckelberg 注意到重整化振幅的一个重要特征。 比方说一个三粒子顶点 (3-vertex) 可以表示为:
或者说:
因此, 完整的振幅是由低阶顶点 gren, 单圈修正, 以及一个吸收表观无穷大的抵消项 (counter term) 所组成的。
很明显, gren 与 Δg 之间的划分是任意的, 而完整的振幅不应该依赖于这种划分, 它应该只依赖于 “裸” 耦合常数
gbare=gren-Δg。 但是, 当我们截断微扰展开式的时候, 在多圈图内部的耦合常数却是重整化后的耦合常数
gren。 因此, 在实际运用时仍然存在着对划分方式的某种人为的依赖性。 这种依赖性在我们把微扰理论中所有各阶的贡献都加上后应该会消失。
完整振幅与减除方式的无关性被 Peterman 与 Stueckelberg 诠释为理论的一种对称性。 这种对称性被称为重整化群, 其变换为 [译者注: 按上面的符号约定 - 即 gbare=gren-Δg, 下式中 Δg 的变换似应为: Δg → Δg + ε]:
这看起来象是一种重大的对称性, 但其实际用途却仅限于一种情形 - 尽管那是一种极其重要的情形。
人们发现只有标度变换才与重整化群相关。 这是重整化群的一维子群, 也是今天仍在使用的唯一类型。
1954 年, M. Gell-Mann 与 F. Low 注意到在可变能标 μ 的标度变换下精细结构常数 α 的重整化群变换可以被计算出, 他们发现
在微扰展开中, (1.3) 式右端的函数是关于 α 的 Taylor 级数, 以 α2 项居首。
在莫斯科, L. Landau 预期这一函数为恒增函数, 因此 α(μ) 应该是一个关于 μ 一开始缓慢增长 (因为 α(1MeV) 很小), 而后逐渐转为爆炸式增长的递增函数。 即便 (1.3) 式中的级数终止于 α2 项, α(μ) 仍会在有限的 μ 处具有奇点。 这一奇点被称为 Landau 奇点 (Landau pole), 它看来是一个在物理上难以令人接受的东西。 这就是为什么 Landau, 以及与他持相同见解的一大批研究者视重整化量子场论为数学上错误的原因。
另一方面, Gell-Mann 与 Low 则猜测 (1.3) 式右端的函数可能会有零点。 在这种情况下, 跑动耦合常数 α(μ) 将会终止于某一数值, 该数值就是理论的裸耦合常数。 但是为了计算这一裸耦合常数, 人们必须跳出微扰理论的框架, 这在当时没人知道该怎么做。 因此尽管 Gell-Mann 与 Low 没有摒弃这一理论, 但他们的观点显然需要当时还不存在的数学技术来支持。 其结果是, 不仅在东欧, 而且在西欧, 许多物理学家相信量子场论的数学基础是破绽百出的。
将所有这些连接在一起的是这样一种信念, 即重整化群函数 - 后来被称为 β-函数 - 的正定性是不可避免的。 这种信念是基于传播子的所谓 Källen-Lehmann 表示:
函数 ρ(m2) 是正定的, 因为对它的贡献来自于所有粒子可能衰变到的虚粒子态 [译者注: 具体地讲
ρ(m2) 的表达式为
Σλδ(m2-mλ2)|<0|φ(0)|λ>|2,
显然是正定的]。 但 ρ 与 β 之间的关系并非显而易见这一事实却显然被忽略了。 可重整量子场论被视为是一种玩具理论,
一些研究者并且声称量子电动力学所取得的表观上的数值成就不过是一种巧合而已。
2. 有趣的模型
尽管如此, 几个这种有蛊惑性的玩具理论依然出现了。 其中最杰出的一个是由 C. N. Yang 与 R. Mills 于 1954 年所提出的, 其基本拉氏量 (Lagrangian):
简单得令人倾倒, 并显示出一种强有力的对称性:定域规范不变性。 当然, 它 (看起来) 不能用于描述现实世界, 因为它要求存在不同于普通光子的无质量、
彼此有相互作用的矢量粒子, 这样的粒子看来并不存在。 在现实世界里最接近于这种粒子的是 ρ 介子 - 但 ρ 介子更可能只是碰巧具有自旋 1
的强相互作用物质的激发态 - 以及假想中很有可能是矢量粒子的弱相互作用媒介粒子 W±。 然而所有这些粒子都具有质量,
而没有任何规范不变的项可以产生这种质量。
但即使这样, 这一模型仍然持续地启发着研究者。 首先是 R. Feynman 与 Gell-Mann, 在他们为弱相互作用的基本 Fermi 拉氏量提出一种特殊形式 (以纪录的角度讲, 这一表达式此前曾被 R. E. Marshak 与 E. C. G. Sudarshan 给出过):
(其中 GW 为相互作用常数) 时。 不难看到, 这种相互作用可以由产生及湮灭重矢量玻色子 W± 而得到。
Richard Feynman 在研究引力量子化之谜时又一次从 Yang-Mills 理论中得到了启发。 在引力中, 相应的不变群是微分同胚:
这是定域并且 non-Abelian 的, 因此可以与 Yang-Mills 理论中的定域规范不变性:
相比拟。 Gell-Mann 曾建议 Feynman 研究 Yang-Mills 理论而非引力, 因为困扰 Feynman 的是对称性的
non-Abelian 性质, 这是所有 Yang-Mills 体系共有的性质, 而 Yang-Mills 理论比引力简单。 Feynman
发现为了在这一理论中恢复幺正性 (unitarity), 必须在 Feynman 规则中增加一些虚拟的东西。 他把这些东西称为 “鬼” (ghosts)。
他的研究没能超出单圈图的范围。 几年后, B. DeWitt 给出了多圈图的 Feynman 规则。
在 Feynman 与 DeWitt 研究无质量 Yang-Mills 理论的时候, S. Glashow 为了得到一个看上去不错的弱相互作用拉氏量于 1961 年添加了一个质量项:
这一理论看来可以很好地描述弱相互作用, 可以解释其矢量性质, 以及明显的普适性 - 即所有参与弱相互作用的粒子与矢量玻色子之间都有普适的耦合常数,
仿佛存在一个守恒的 Yang-Mills 荷。
1964 年, P. Higgs 证明了 J. Goldstone 早先证明的一个定理不适用于定域规范理论。 Goldstone 曾经证明, 只要一个连续对称性被模型中的真空态所自发破缺, 就必定存在一个质量为零的无自旋粒子。 Higgs 证明了, 如果该对称性是定域对称性, 则 Goldstone 的粒子将会被一个有质量的粒子所取代。 这一粒子现在被称为 Higgs 粒子。 但是尽管 Higgs 避免了使用 “场论” 这一术语, 他的文章仍未引起任何注意。
此后不久, F. Englert 与 R. Brout 证明了, 如果一个定域对称性自发破缺, 那么不仅 Goldstone 粒子, 连矢量规范粒子也将获得质量。 这就是如今所说的 Higgs 机制。 所有这些都是在重整化场论遭到冷遇的时侯出现的, 因此那些作者都使用了抽象的数学论证, 而刻意回避了象 Yang-Mills 理论那样的具体模型。
Abdus Salam 用 Yang-Mills 模型及 Higgs 机制构筑了一个可以用于弱相互作用的模型, 这为 Yang-Mills 模型提供了一个很强的范例。 与之独立地, S. Weinberg 于 1967 用被 Higgs 机制破缺的定域 SU(2)×U(1) 对称性给出了第一个将电磁与弱相互作用合而为一的具体模型。
但是这些理论有两个问题。 一个是可重整性。 尽管这些理论看起来是可重整的, 但还无法建立真正的计算法则。 另一个是尽管 Weinberg 的理论对于轻子来说看起来不错, 但与强子的弱相互作用实验不符, 它所预言的 “奇异数改变中性流相互作用” (strangeness-changing neutral current interactions) 被实验否决了。
Veltman 研究了第一个问题。 由于对 Higgs、 Englert 及 Brout 的工作印象不深, 他以 Glashow 的拉氏量 (2.5) 为出发点。 他发现在单圈图层次上, 精巧地运用 Feynman 的鬼场可以消去所有的无穷大。 受此鼓舞他试图证明在所有层次上的可重整性。 但他 1968 年的算法没能为这种证明提供线索。 他几乎证明了这些理论没有一个能在单圈图以上被重整。
1960 年, Gell-Mann 与 M. Lévy 提出了后来被用于强子的另一个可重整模型。 他们所用的基本场量是一个同位旋 1/2 的核子场 N=(p, n)T, 一个同位旋 1 的 π 介子赝标量场 π=(π+, π0, π-)T, 及一个新的标量场 σ。 这个模型 - 被称为 σ 模型 - 的拉氏量为:
这里 τ 的分量为同位旋 Pauli 矩阵, V 为自变量 σ2+π2 的平方多项式。 运用手征投影算符
P±=(1/2)(1±γ5) 可以证明这一模型具有只被最后那个 σ 的线性项所破缺的 (整体) 手征
SU(2)×SU(2)×U(1)重子 对称性。 在这一模型中, 如果势能 V 在自变量非零处有极小值, 则对称性可以自发破缺为
SU(2)×U(1)。 π 介子为 Goldstone 玻色子, 其质量正比于 (2.6) 式中的系数 c。 这一模型很好地反映了在自然界中观测到的对称性。
即使在那个时候, 人们就已经知道所有这些都可以用夸克理论来解释。 引进
cσ 项对应于夸克质量项, 它破坏夸克的手征对称性。 [译者注: 夸克模型是 1964 年由 Gell-Mann 与 Zweig 提出的,
晚于 1960 年的 σ 模型, 因此对 't Hooft 所说的 “那个时候” 须作广义理解]
σ 模型现在仍常常有人在研究, 但其起源于 Gell-Mann 与 M. Lévy 的 σ 模型这一点常被人遗忘。 这一模型的物理特性与真空态的对称性密切相关。 倘若赝标量场的自作用 V 的极小值在原点, 则手征对称性为明显对称性, 核子将是无质量的。 核子的激发态将以 “宇称双重态” - 即宇称相反的费米子对 - 的形式出现。 π 介子与 σ 将有相同的非零质量。 这被称为 Wigner 模式。
倘若 V 的极小值不在原点, 则对称性自发破缺, π 介子变成无质量的, 而核子获得质量。 宇称双重态的质量不再简并。 σ 也具有质量。 π 介子只有在对称性明显破缺, 即 c≠0 时才能获得质量。 这被称为 Nambu-Goldstone 模式。
由此产生的一个问题是: 这种区分是否会被重整化所破坏? 这一问题由 B. W. Lee、 J. -L. Gervais 及 K. Symanzik 做了研究。 1970 年以此为主题在 Cargèse 曾举办过一次暑期研讨, 结果表明该模型是可重整的, 并且手征对称的性质不会被重整化所破坏。 但实验观测表明 π 介子与核子的耦合常数 g 很大, 因此微扰展开对于计算核子及 π 介子的物理性质并无太大用处。 σ 则极度不稳定, 完全无法被实验所检测。 人们曾尝试用 Padé 近似等方法来改进微扰手段。
今天我们会很容易地把 Yang-Mills 理论, Higgs、 Englert 及 Brout 的定理, 以及 σ 模型列为五六十年代最重要的进展。 然而当时的物理学家们并不这样看。 许多其它的发现被认为要重要得多。 就象在史前岁月里恐龙或许会被认为是比那些毫不起眼的, 尺度微小却长着毛发的小动物更为重要, 且更有希望。 而事实上却是那些远古的哺乳动物在后来的演化中成为了主宰。 与之非常类似地, Yang-Mills 理论、 量子引力研究及 σ 模型与当时引人注目得多的许多 “恐龙” - 比如形形色色的强相互作用模型, 流代数[注一], 公理化方法, 对偶性与解析性 - 相比是 “长着毛发的小动物”。 但那些 “恐龙” 如今大都已经绝迹了。
3. 驯服无穷大
在 1970 年的时候, 我意识到曾被 Feynman 及 Veltman 用过的 Glashow 模型, 即 (2.5) 式, 在远紫外区有着严重的困难, 而 Higgs 模型在这方面要优越得多。 Veltman - 我当时的导师 - 却不同意我的看法。 最终我们达成的一致意见是以下面这些作为我的研究课题:
L. D. Faddeev 与 V. N. Popov 对规范理论的泛函积分作了漂亮的研究, 他们得到的泛函积分为:
其中最后的 Dirac δ 是规范固定项 (gauge-fixing term), Δ 是一个为保持上述表达式与规范固定无关所必不可少的行列式。
这个行列式是一个 Jacobi 行列式, 具有明确的计算法则。 这些法则与 Feynman 鬼场的法则类似。 矢量粒子的传播子必须是横向
(transverse) 的:
不过 S. Mandelstam 也发表过一篇文章, 他推导出的 Feynman 传播子为:
Feynman 则认为无质量理论应视为是有质量理论的极限, 后者的传播子为:
他声称在 M→0 的极限下, kμkν 项可以去除, 它会被鬼场的效应所取代。 Feynman 的鬼场法则与
Mandelstam 及 L. D. Faddeev 与 V. N. Popov 的并不完全等同[注一]。
我注意到 Faddeev-Popov 行列式可以被改写成 Gauss 型泛函积分, 从而可以被视为是对应于鬼场的贡献 [译者注: 下式中的 (det M)-1 似应为 (det M)]:
式中的 -1 解释了鬼场的反常符号。 接下来可以推广 Faddeev-Popov 方法, 将规范固定项换成
δ(∂μAμ(x)-f(x)), 然后对 f(x) 的任意 Gauss 项进行积分 [译者注: 下式中的
Δ 似应去除]:
这给出了 Lagrangian 中一个很方便的附加项 -(1/2)α(∂μAμ)2。
这使传播子变成带任意参数 λ 的:
由此可以看到 Mandelstam 的法则会给出与 Faddeev 和 V. N. Popov 一样的振幅。
在量子电动力学中规范不变性体现在 Ward 恒等式中, 那么 Yang-Mills 理论中的 Ward 恒等式是怎样的呢? 我们从量子电动力学的 Ward 恒等式中找出了具有基础地位的 Feynman 图的组合性质。 这些性质可以加以推广, 用来理解 Yang-Mills 理论中相应的恒等式。 这需要极高的技巧, 因为我们无法找到用以推导这些结果的全局对称性[注二]。 这其中一个关键的性质是规范群必须是完整的, 即规范群的生成元必须满足 Jacobi 恒等式。 用图来表示, 必须有:
这是为证明减除方法的幺正性所需要的。 在恒等式
中的中间态会被包括下图在内的鬼场贡献所抵消
我们接着证明了这些恒等式正是为完全而无歧义地确定所有重整化抵消项所需要的。 不过这其中还有一个问题。 我们知道在手征理论中可能会出现反常。 不同的恒等式会要求对抵消项中的有限部分作出不同的选择, 这种选择会彼此冲突。 这种冲突会出现在规范理论中吗? 经过详尽的寻觅, 一种规范不变, 从而使恒等式自动得到满足的正规化手段被找到了。 我们的做法很简单, 那就是在 Minkowski 空间中引进第五维, 并且把所有圈图中那一维度上的动量选为一个固定值 Λ。 这解决了问题, 但只适用于单圈图。 我们还必须证明多圈图中结果的唯一性。 我们当时所用的五维方法后来成为了一种更普遍, 并解决了多圈图问题的维数正规化方法的前身。
我非常急切地想推进到下一步: 添加质量项。 这已变得不再困难, 因为完全的规范不变性是绝对必需的, 因此象 Glashow 模型那样添加质量项是不允许的, 但 Higgs 机制则完全可以。 把我们的方法推广到包括 Higgs 机制并不困难。 与前面一样, 幺正性及所有其它必需的性质都可以用微扰的方式确立。
在那个时候出现了两篇文章: J. Taylor 与 A. A. Slavnov 各自独立地注意到我的恒等式可以被推广到质壳外的振幅 (off-mass shell amplitude)。 在我的早期方法中, 我决定避免这种推广, 因为那将使得引进新的抵消项成为必须, 从而导致复杂性。 然而正是这些质壳外的恒等式可以用 BRS 对称性来诠释, 因此对确立可重整性来说至关重要的振幅间的关系式在现在的文献中被称为了 “Slavnov-Taylor 恒等式”。
我们还必须研究抵消项中的有限部分是否会在多圈图层次上受到反常的破坏。 在 Minkowski 空间中添加第六或第七维未能带来无歧义的答案[注三]。 最终, 与 M. Veltman 一起, 我们提出了一种正确的方法, 现在被称为 “维数正规化与重整化”。 理论必须在 4-ε 维中进行处理。 在物理上, 非整数维是无意义的, 但在微扰展开中, 由 Feynman 图所产生的振幅有唯一的定义。 对数发散立刻就消失了, 线性及平方发散仍存在, 但如果 ε≠0 它们可以通过分部积分技巧无歧义地被减除。 剩下的就只是复 ε 平面上的有限阶极点了。 这些极点可以通过规范不变的抵消项从物理振幅中去除 (场量重整化也许需要非规范不变的减除, 但场量在这种方案中不是直接可观测的量)。
维数正规化不仅对于形式证明有用, 而且还是计算重整化多圈图的非常现实的工具。 我们第一次有了一个理论, 在其中弱相互作用的高阶修正是有限并且可以被计算的。 但当时还不清楚究竟哪一个可能的规范模型可以最精确地描述观测到的相互作用。 解决强子问题的一种机制在早先已经由 Glashow, J. Iliopoulos 及 L. Maiani 所提出。 他们引进了一种被称为 “粲夸克” (charm) 的新夸克。 他们的机制能够解释不存在奇异数改变的中性流, 同时保留了奇异数守恒的中性流, 后者在强子区与轻子区都已经被精彩的实验所检测到。
4. 标度律
由于规范理论在唯象领域的成功, 许多物理学家放弃了原先对可重整场论的反对。 但是与标度律有关的问题依然存在。 1970 年, C. G. Callan 与 K. Symanzik 彼此独立地从经过重整化群效应修正的标度律中得到了振幅所满足的方程式。 他们引进了耦合常数 g 的函数 α(g), β(g), γ(g),... , 其中 β(g) 与第一节中提到的函数扮演同样的角色。 由于他们关注的是所有可重整理论中最为熟悉的原型: QED 与 λφ4, 他们预期这一函数是恒正的。 但是极高能下的非弹性散射实验却显示出近乎单纯的标度性质, 仿佛 β≤0, 并且耦合常数 g 本身也很小 (Bjorken 标度律) [译者注: 那些实验所涉及的并不是 QED 与 λφ4, 因此严格讲与这两者的 β(g) 函数恒正并不矛盾, 只有把 QED 与 λφ4 视为所有可重整量子场论的代表, 才有矛盾]。 对量子场论的反感使得 D. Gross 在 1971 年时猜测没有任何量子场论可以描述 Bjorken 标度律。
那么 Yang-Mills 理论的情况又如何呢? 人们在各种矢量粒子理论的相关效应中曾得到过不寻常的符号。 1964 年, V. S. Vanyashin 与 M. V. Terentev 做了一些计算, 他们发现有荷矢量玻色子的荷重整化是负的 [译者注: 所谓 “荷重整化是负的” 指的是荷随动量增加而减小, 即 β(g)<0。 在标准模型中弱 SU(2) 与强 SU(3) 的荷重整化是负的 (与 QED 相反), 这里介绍的正是早年在这方面的研究]。 这一结果被认为是荒谬的, 并被认为是由于理论不可重整所致。 1969 年, Khriplovich 对 Yang-Mills 理论中的荷重整化做了正确的计算, 结果同样得出不寻常的符号, 但这一结果没有与渐进自由联系起来, 他的这一出色的工作被忽略了。
当我研究规范理论的重整化时, 我当然对标度律感到兴趣, 我于 1971 年开始计算。 由于下面这一因素, 计算变得很微妙。 包括鬼场贡献在内的自能修正具有 C(kμkν-k2δμν) 的形式, 预示着
形式的抵消项。 三顶点修正则对顶点产生一个标度修正
但是 C 与 C' 并不匹配, 从而不能合并成形如
FaμνFaμν 的规范不变项。 这是因为场量重整化不是规范不变的。
但是从这些计算中可以得到正确的标度行为。 不管怎么说, 符号是确定无疑的[注四]。
在那个时侯, 没有 Veltman 的准许我很难发表任何东西。 而对于这个课题, 他完全不感兴趣。 当我告诉他我有关纯规范场与夸克相耦合的想法时, 他明确表示, 如果我有任何有关强相互作用的理论, 就必须解释为什么自由夸克从未被观测到。 而这当时我还无法解释, 但是我打算找出原因。 在找到有关夸克囚禁 (confinement) 的好思路之前, 没有任何东西值得发表 。。。 [译者注: 从上下文看, 最后这句应该是当时 Veltman 的观点。 Veltman 与 't Hooft 这对师生后来闹翻了, 在本节中可以明显看到 't Hooft 流露出对 Veltman 的不满。 't Hooft 当时未能发表的研究稍后被另外三位物理学家所做出, 后者因此而获得 Nobel 奖 (见下文), 不过那是在 't Hooft 写作本文之后的事。]
在这一领域中活跃着如此众多的专家, 我曾以为他们很可能多多少少已经知道 Yang-Mills 理论的标度行为。 我不明白为什么在讨论 Bjorken 标度律时量子场论被整体性地排除在外。 但是 1972 年六月在 Marseille 的一次小会议上我与 Symanzik 讨论了他的带负 λ 的 λφ4 理论。 他曾希望用这种方法来解释 Bjorken 标度律。 当我告诉他规范理论是一个好得多的选择, 因为我已经发现了它们的标度律时, 他明确表示不相信。 但是当他在会议上介绍完他的理论后, 他给了我一个机会公开宣布这样一个结果: 如果对一个包含矢量、 旋量及标量粒子的规范理论作标度变换, 则规范耦合常数满足下述标度律:
其中 C1 是规范群的正 Casimir 常数, C2 是与费米子有关的正系数, C3
- 也是正的 - 则与标量粒子有关。 Symanzik 鼓励我尽快发表这一结果, 因为它将是新的。 我现在很后悔没有采纳他的明智建议, 而继续与 Veltman
研究量子引力中的发散。
很明显, (4.3) 式所给出的标度律与维数重整化所要求的抵消项密切相关。 但这种关联绝非容易, 其细节直到 1973 年才被计算出。 除此之外, 一种运用背景场方法 - 从而可以从规范不变性中直接推出规范不变的抵消项 - 的计算方法出现了。 这极大地简化了 (4.3) 式的推导。 在那个时侯, H. D. Politzer, D. Gross 与 F. Wilczek 的论文出现了。 [译者注: 那篇论文使 H. D. Politzer, D. Gross 与 F. Wilczek 获得了 2004 年的 Nobel 物理学奖。]
注释
http://www.changhai.org/
- 作者:Gerard 't Hooft 译者:卢昌海 -
译者序:
本文依据 Gerard 't Hooft 的 "The Glorious Days of Physics - Renormalization of Gauge Theories" (Erice Lecture Notes, 1998) 所译。 't Hooft 是一位杰出的理论物理学家, 曾因 “阐明了电弱相互作用的量子结构” 与他当年的导师 Martinus Veltman 共同获得 1999 年的 Nobel 物理学奖。 本文的标题 “规范理论的重整化” 所代表的是 't Hooft 一生最杰出的贡献之一 (也是瑞典皇家科学院所用的 “阐明了电弱相互作用的量子结构” 这一含糊其辞的表述背后的主要含义)。 本文的原文共分七节, 涵盖了标准模型建立过程中的许多重大理论进展。 本译文包含了其中与 “规范理论的重整化” 这一主题关系紧密的前四节 (约占全文篇幅的 2/3)。 在许多方面本文与 S. Weinberg 的 标准模型简史 可互为补充。 与 标准模型简史 的译文一样 (理由也一样), 本译文也略去了原文所引的参考文献 (共计百余篇, 多数为原始文献)。
1. 史前 (≈1947-1969): 量子场论之死
在经历了将发散积分替换为实验可观测的物理量 (如质量及电荷) 所带来的十余年的极大兴奋之后, 新的看似足以妨碍对重整化问题作任何进一步理解的严重困难出现了。 在六十年代, 已知的可重整量子场论主要有两种原型:
- 量子电动力学 (QED), 一个描述带电费米子与电磁场相互作用的现实模型, 以及
- λφ4-理论, 一个标量粒子自相作用的理论。 与第一个理论不同的是, 人们并不期望这一理论描述当时已知的任何基本粒子。
1953 年, Peterman 与 Stueckelberg 注意到重整化振幅的一个重要特征。 比方说一个三粒子顶点 (3-vertex) 可以表示为:
或者说:
Γ = gren + (g)3∫(...) - Δg | (1.1) |
完整振幅与减除方式的无关性被 Peterman 与 Stueckelberg 诠释为理论的一种对称性。 这种对称性被称为重整化群, 其变换为 [译者注: 按上面的符号约定 - 即 gbare=gren-Δg, 下式中 Δg 的变换似应为: Δg → Δg + ε]:
gren → gren + ε Δg → Δg - ε |
(1.2) |
1954 年, M. Gell-Mann 与 F. Low 注意到在可变能标 μ 的标度变换下精细结构常数 α 的重整化群变换可以被计算出, 他们发现
μdα/dμ = O(α2) > 0 | (1.3) |
在莫斯科, L. Landau 预期这一函数为恒增函数, 因此 α(μ) 应该是一个关于 μ 一开始缓慢增长 (因为 α(1MeV) 很小), 而后逐渐转为爆炸式增长的递增函数。 即便 (1.3) 式中的级数终止于 α2 项, α(μ) 仍会在有限的 μ 处具有奇点。 这一奇点被称为 Landau 奇点 (Landau pole), 它看来是一个在物理上难以令人接受的东西。 这就是为什么 Landau, 以及与他持相同见解的一大批研究者视重整化量子场论为数学上错误的原因。
另一方面, Gell-Mann 与 Low 则猜测 (1.3) 式右端的函数可能会有零点。 在这种情况下, 跑动耦合常数 α(μ) 将会终止于某一数值, 该数值就是理论的裸耦合常数。 但是为了计算这一裸耦合常数, 人们必须跳出微扰理论的框架, 这在当时没人知道该怎么做。 因此尽管 Gell-Mann 与 Low 没有摒弃这一理论, 但他们的观点显然需要当时还不存在的数学技术来支持。 其结果是, 不仅在东欧, 而且在西欧, 许多物理学家相信量子场论的数学基础是破绽百出的。
将所有这些连接在一起的是这样一种信念, 即重整化群函数 - 后来被称为 β-函数 - 的正定性是不可避免的。 这种信念是基于传播子的所谓 Källen-Lehmann 表示:
D(k2) = ∫ρ(m2)dm2/(k2+m2-iε); ρ(m2)>0 | (1.4) |
2. 有趣的模型
尽管如此, 几个这种有蛊惑性的玩具理论依然出现了。 其中最杰出的一个是由 C. N. Yang 与 R. Mills 于 1954 年所提出的, 其基本拉氏量 (Lagrangian):
LYM = -(1/4)GμνGμν - ψ(γD+m)ψ | (2.1) |
但即使这样, 这一模型仍然持续地启发着研究者。 首先是 R. Feynman 与 Gell-Mann, 在他们为弱相互作用的基本 Fermi 拉氏量提出一种特殊形式 (以纪录的角度讲, 这一表达式此前曾被 R. E. Marshak 与 E. C. G. Sudarshan 给出过):
Lweak = GWψγμ(1+γ5)ψψγμ(1+γ5)ψ | (2.2) |
Richard Feynman 在研究引力量子化之谜时又一次从 Yang-Mills 理论中得到了启发。 在引力中, 相应的不变群是微分同胚:
φ(x) → φ'(x) = φ(x+u(x)) | (2.3) |
ψ(x) → ψ'(x) = Ω(x)φ(x) | (2.4) |
在 Feynman 与 DeWitt 研究无质量 Yang-Mills 理论的时候, S. Glashow 为了得到一个看上去不错的弱相互作用拉氏量于 1961 年添加了一个质量项:
L = LYM - (1/2)M2Aμ2 | (2.5) |
1964 年, P. Higgs 证明了 J. Goldstone 早先证明的一个定理不适用于定域规范理论。 Goldstone 曾经证明, 只要一个连续对称性被模型中的真空态所自发破缺, 就必定存在一个质量为零的无自旋粒子。 Higgs 证明了, 如果该对称性是定域对称性, 则 Goldstone 的粒子将会被一个有质量的粒子所取代。 这一粒子现在被称为 Higgs 粒子。 但是尽管 Higgs 避免了使用 “场论” 这一术语, 他的文章仍未引起任何注意。
此后不久, F. Englert 与 R. Brout 证明了, 如果一个定域对称性自发破缺, 那么不仅 Goldstone 粒子, 连矢量规范粒子也将获得质量。 这就是如今所说的 Higgs 机制。 所有这些都是在重整化场论遭到冷遇的时侯出现的, 因此那些作者都使用了抽象的数学论证, 而刻意回避了象 Yang-Mills 理论那样的具体模型。
Abdus Salam 用 Yang-Mills 模型及 Higgs 机制构筑了一个可以用于弱相互作用的模型, 这为 Yang-Mills 模型提供了一个很强的范例。 与之独立地, S. Weinberg 于 1967 用被 Higgs 机制破缺的定域 SU(2)×U(1) 对称性给出了第一个将电磁与弱相互作用合而为一的具体模型。
但是这些理论有两个问题。 一个是可重整性。 尽管这些理论看起来是可重整的, 但还无法建立真正的计算法则。 另一个是尽管 Weinberg 的理论对于轻子来说看起来不错, 但与强子的弱相互作用实验不符, 它所预言的 “奇异数改变中性流相互作用” (strangeness-changing neutral current interactions) 被实验否决了。
Veltman 研究了第一个问题。 由于对 Higgs、 Englert 及 Brout 的工作印象不深, 他以 Glashow 的拉氏量 (2.5) 为出发点。 他发现在单圈图层次上, 精巧地运用 Feynman 的鬼场可以消去所有的无穷大。 受此鼓舞他试图证明在所有层次上的可重整性。 但他 1968 年的算法没能为这种证明提供线索。 他几乎证明了这些理论没有一个能在单圈图以上被重整。
1960 年, Gell-Mann 与 M. Lévy 提出了后来被用于强子的另一个可重整模型。 他们所用的基本场量是一个同位旋 1/2 的核子场 N=(p, n)T, 一个同位旋 1 的 π 介子赝标量场 π=(π+, π0, π-)T, 及一个新的标量场 σ。 这个模型 - 被称为 σ 模型 - 的拉氏量为:
L = -(1/2)(∂σ2+∂π2) - V(σ2+π2) - Nγ∂N - gN(σ+iπ·τγ5)N + cσ | (2.6) |
π = iqτγ5q; σ = qq | (2.7) |
σ 模型现在仍常常有人在研究, 但其起源于 Gell-Mann 与 M. Lévy 的 σ 模型这一点常被人遗忘。 这一模型的物理特性与真空态的对称性密切相关。 倘若赝标量场的自作用 V 的极小值在原点, 则手征对称性为明显对称性, 核子将是无质量的。 核子的激发态将以 “宇称双重态” - 即宇称相反的费米子对 - 的形式出现。 π 介子与 σ 将有相同的非零质量。 这被称为 Wigner 模式。
倘若 V 的极小值不在原点, 则对称性自发破缺, π 介子变成无质量的, 而核子获得质量。 宇称双重态的质量不再简并。 σ 也具有质量。 π 介子只有在对称性明显破缺, 即 c≠0 时才能获得质量。 这被称为 Nambu-Goldstone 模式。
由此产生的一个问题是: 这种区分是否会被重整化所破坏? 这一问题由 B. W. Lee、 J. -L. Gervais 及 K. Symanzik 做了研究。 1970 年以此为主题在 Cargèse 曾举办过一次暑期研讨, 结果表明该模型是可重整的, 并且手征对称的性质不会被重整化所破坏。 但实验观测表明 π 介子与核子的耦合常数 g 很大, 因此微扰展开对于计算核子及 π 介子的物理性质并无太大用处。 σ 则极度不稳定, 完全无法被实验所检测。 人们曾尝试用 Padé 近似等方法来改进微扰手段。
今天我们会很容易地把 Yang-Mills 理论, Higgs、 Englert 及 Brout 的定理, 以及 σ 模型列为五六十年代最重要的进展。 然而当时的物理学家们并不这样看。 许多其它的发现被认为要重要得多。 就象在史前岁月里恐龙或许会被认为是比那些毫不起眼的, 尺度微小却长着毛发的小动物更为重要, 且更有希望。 而事实上却是那些远古的哺乳动物在后来的演化中成为了主宰。 与之非常类似地, Yang-Mills 理论、 量子引力研究及 σ 模型与当时引人注目得多的许多 “恐龙” - 比如形形色色的强相互作用模型, 流代数[注一], 公理化方法, 对偶性与解析性 - 相比是 “长着毛发的小动物”。 但那些 “恐龙” 如今大都已经绝迹了。
3. 驯服无穷大
在 1970 年的时候, 我意识到曾被 Feynman 及 Veltman 用过的 Glashow 模型, 即 (2.5) 式, 在远紫外区有着严重的困难, 而 Higgs 模型在这方面要优越得多。 Veltman - 我当时的导师 - 却不同意我的看法。 最终我们达成的一致意见是以下面这些作为我的研究课题:
- 到底该如何对无质量纯 Yang-Mills 体系中的振幅进行重整? 计算法则是什么? 当然这将在微扰论的框架中进行。
- 如何将这一切与质量项匹配起来? 我知道那将是 Higgs 理论。
L. D. Faddeev 与 V. N. Popov 对规范理论的泛函积分作了漂亮的研究, 他们得到的泛函积分为:
∫DAμ Δ exp[i∫LYMd4x Πxδ(∂μAμ(x))] | (3.1) |
(δμν-kμkν/k2) / (k2-iε) | (3.2) |
δμν / (k2-iε) | (3.3) |
(δμν+kμkν/M2) / (k2-iε) | (3.4) |
我注意到 Faddeev-Popov 行列式可以被改写成 Gauss 型泛函积分, 从而可以被视为是对应于鬼场的贡献 [译者注: 下式中的 (det M)-1 似应为 (det M)]:
Δ=det(M); C·(det M)-1 = ∫DφDφ* e-φ*Mφ | (3.5) |
∫DADφDφ*Df Δ exp[i∫(LYM-φ*Mφ-(1/2)αf2) Πxδ(∂μAμ-f(x))] | (3.6) |
(δμν-λkμkν/k2) / (k2-iε) | (3.7) |
在量子电动力学中规范不变性体现在 Ward 恒等式中, 那么 Yang-Mills 理论中的 Ward 恒等式是怎样的呢? 我们从量子电动力学的 Ward 恒等式中找出了具有基础地位的 Feynman 图的组合性质。 这些性质可以加以推广, 用来理解 Yang-Mills 理论中相应的恒等式。 这需要极高的技巧, 因为我们无法找到用以推导这些结果的全局对称性[注二]。 这其中一个关键的性质是规范群必须是完整的, 即规范群的生成元必须满足 Jacobi 恒等式。 用图来表示, 必须有:
这是为证明减除方法的幺正性所需要的。 在恒等式
SS† = I | (3.8) |
我们接着证明了这些恒等式正是为完全而无歧义地确定所有重整化抵消项所需要的。 不过这其中还有一个问题。 我们知道在手征理论中可能会出现反常。 不同的恒等式会要求对抵消项中的有限部分作出不同的选择, 这种选择会彼此冲突。 这种冲突会出现在规范理论中吗? 经过详尽的寻觅, 一种规范不变, 从而使恒等式自动得到满足的正规化手段被找到了。 我们的做法很简单, 那就是在 Minkowski 空间中引进第五维, 并且把所有圈图中那一维度上的动量选为一个固定值 Λ。 这解决了问题, 但只适用于单圈图。 我们还必须证明多圈图中结果的唯一性。 我们当时所用的五维方法后来成为了一种更普遍, 并解决了多圈图问题的维数正规化方法的前身。
我非常急切地想推进到下一步: 添加质量项。 这已变得不再困难, 因为完全的规范不变性是绝对必需的, 因此象 Glashow 模型那样添加质量项是不允许的, 但 Higgs 机制则完全可以。 把我们的方法推广到包括 Higgs 机制并不困难。 与前面一样, 幺正性及所有其它必需的性质都可以用微扰的方式确立。
在那个时候出现了两篇文章: J. Taylor 与 A. A. Slavnov 各自独立地注意到我的恒等式可以被推广到质壳外的振幅 (off-mass shell amplitude)。 在我的早期方法中, 我决定避免这种推广, 因为那将使得引进新的抵消项成为必须, 从而导致复杂性。 然而正是这些质壳外的恒等式可以用 BRS 对称性来诠释, 因此对确立可重整性来说至关重要的振幅间的关系式在现在的文献中被称为了 “Slavnov-Taylor 恒等式”。
我们还必须研究抵消项中的有限部分是否会在多圈图层次上受到反常的破坏。 在 Minkowski 空间中添加第六或第七维未能带来无歧义的答案[注三]。 最终, 与 M. Veltman 一起, 我们提出了一种正确的方法, 现在被称为 “维数正规化与重整化”。 理论必须在 4-ε 维中进行处理。 在物理上, 非整数维是无意义的, 但在微扰展开中, 由 Feynman 图所产生的振幅有唯一的定义。 对数发散立刻就消失了, 线性及平方发散仍存在, 但如果 ε≠0 它们可以通过分部积分技巧无歧义地被减除。 剩下的就只是复 ε 平面上的有限阶极点了。 这些极点可以通过规范不变的抵消项从物理振幅中去除 (场量重整化也许需要非规范不变的减除, 但场量在这种方案中不是直接可观测的量)。
维数正规化不仅对于形式证明有用, 而且还是计算重整化多圈图的非常现实的工具。 我们第一次有了一个理论, 在其中弱相互作用的高阶修正是有限并且可以被计算的。 但当时还不清楚究竟哪一个可能的规范模型可以最精确地描述观测到的相互作用。 解决强子问题的一种机制在早先已经由 Glashow, J. Iliopoulos 及 L. Maiani 所提出。 他们引进了一种被称为 “粲夸克” (charm) 的新夸克。 他们的机制能够解释不存在奇异数改变的中性流, 同时保留了奇异数守恒的中性流, 后者在强子区与轻子区都已经被精彩的实验所检测到。
4. 标度律
由于规范理论在唯象领域的成功, 许多物理学家放弃了原先对可重整场论的反对。 但是与标度律有关的问题依然存在。 1970 年, C. G. Callan 与 K. Symanzik 彼此独立地从经过重整化群效应修正的标度律中得到了振幅所满足的方程式。 他们引进了耦合常数 g 的函数 α(g), β(g), γ(g),... , 其中 β(g) 与第一节中提到的函数扮演同样的角色。 由于他们关注的是所有可重整理论中最为熟悉的原型: QED 与 λφ4, 他们预期这一函数是恒正的。 但是极高能下的非弹性散射实验却显示出近乎单纯的标度性质, 仿佛 β≤0, 并且耦合常数 g 本身也很小 (Bjorken 标度律) [译者注: 那些实验所涉及的并不是 QED 与 λφ4, 因此严格讲与这两者的 β(g) 函数恒正并不矛盾, 只有把 QED 与 λφ4 视为所有可重整量子场论的代表, 才有矛盾]。 对量子场论的反感使得 D. Gross 在 1971 年时猜测没有任何量子场论可以描述 Bjorken 标度律。
那么 Yang-Mills 理论的情况又如何呢? 人们在各种矢量粒子理论的相关效应中曾得到过不寻常的符号。 1964 年, V. S. Vanyashin 与 M. V. Terentev 做了一些计算, 他们发现有荷矢量玻色子的荷重整化是负的 [译者注: 所谓 “荷重整化是负的” 指的是荷随动量增加而减小, 即 β(g)<0。 在标准模型中弱 SU(2) 与强 SU(3) 的荷重整化是负的 (与 QED 相反), 这里介绍的正是早年在这方面的研究]。 这一结果被认为是荒谬的, 并被认为是由于理论不可重整所致。 1969 年, Khriplovich 对 Yang-Mills 理论中的荷重整化做了正确的计算, 结果同样得出不寻常的符号, 但这一结果没有与渐进自由联系起来, 他的这一出色的工作被忽略了。
当我研究规范理论的重整化时, 我当然对标度律感到兴趣, 我于 1971 年开始计算。 由于下面这一因素, 计算变得很微妙。 包括鬼场贡献在内的自能修正具有 C(kμkν-k2δμν) 的形式, 预示着
C (∂μAν - ∂νAμ)2 | (4.1) |
C' fabc ∂μAνa [Aμb, Aνc] | (4.2) |
在那个时侯, 没有 Veltman 的准许我很难发表任何东西。 而对于这个课题, 他完全不感兴趣。 当我告诉他我有关纯规范场与夸克相耦合的想法时, 他明确表示, 如果我有任何有关强相互作用的理论, 就必须解释为什么自由夸克从未被观测到。 而这当时我还无法解释, 但是我打算找出原因。 在找到有关夸克囚禁 (confinement) 的好思路之前, 没有任何东西值得发表 。。。 [译者注: 从上下文看, 最后这句应该是当时 Veltman 的观点。 Veltman 与 't Hooft 这对师生后来闹翻了, 在本节中可以明显看到 't Hooft 流露出对 Veltman 的不满。 't Hooft 当时未能发表的研究稍后被另外三位物理学家所做出, 后者因此而获得 Nobel 奖 (见下文), 不过那是在 't Hooft 写作本文之后的事。]
在这一领域中活跃着如此众多的专家, 我曾以为他们很可能多多少少已经知道 Yang-Mills 理论的标度行为。 我不明白为什么在讨论 Bjorken 标度律时量子场论被整体性地排除在外。 但是 1972 年六月在 Marseille 的一次小会议上我与 Symanzik 讨论了他的带负 λ 的 λφ4 理论。 他曾希望用这种方法来解释 Bjorken 标度律。 当我告诉他规范理论是一个好得多的选择, 因为我已经发现了它们的标度律时, 他明确表示不相信。 但是当他在会议上介绍完他的理论后, 他给了我一个机会公开宣布这样一个结果: 如果对一个包含矢量、 旋量及标量粒子的规范理论作标度变换, 则规范耦合常数满足下述标度律:
μdg2/dμ = (g4/8π2) (-11C1/3 + 2C2/3 + C3/6) | (4.3) |
很明显, (4.3) 式所给出的标度律与维数重整化所要求的抵消项密切相关。 但这种关联绝非容易, 其细节直到 1973 年才被计算出。 除此之外, 一种运用背景场方法 - 从而可以从规范不变性中直接推出规范不变的抵消项 - 的计算方法出现了。 这极大地简化了 (4.3) 式的推导。 在那个时侯, H. D. Politzer, D. Gross 与 F. Wilczek 的论文出现了。 [译者注: 那篇论文使 H. D. Politzer, D. Gross 与 F. Wilczek 获得了 2004 年的 Nobel 物理学奖。]
注释
- 我后来得知, L. D. Faddeev 与 V. N. Popov 当时就已知道产生这一差异的原因。
- 与此有关的全局对称性现在被称为 BRS 对称性, 但这一对称性含有反对易生成元, 那时我们还不知道如何使用。 在这一对称性中 Jocobi 恒等式也很关键。
- 有一部俄国学者的著作使用了这种高维正规化方法, 但其证明是错误的。
- 我在 1971 年有关 Higgs 理论重整化步骤的论文中清楚地表述了这一符号。 在那篇文章中, 我对自己有关那些理论的工作作了这样的陈述 (其中提到我的前一篇文章): “至此, 我们有关重整化步骤的描述是自洽的, 因此无质量 Yang-Mills 场的紫外问题已经解决了。 一个复杂得多的问题来自于体系中的红外发散。 [...] 那里的灾难在于微扰展开在红外区域失效了, 因此我们没有任何严格的场论来描述所产生的现象”。 “场论” 在当时一直是指微扰场论。
http://www.changhai.org/
【转载】:标准模型简史
by:格致人生
标准模型简史
- 作者:Steven Weinberg 译者:卢昌海 -
译者序:
2003 年, 物理学家们相聚在欧洲核子中心 (CERN) 纪念中性流发现三十周年及 W 与 Z 粒子发现二十周年。 著名理论物理学家 Steven Weinberg 在纪念会上作了题为 "The Making of the Standard Model" 的演讲。 这一演讲经整理后发表于 Eur. Phys. J. C34 5-13, 2004, 本文便是据此而译。 Weinberg 是电弱统一理论的提出者之一, 亲身参与了标准模型诞生过程中一系列激动人心的进展, 因此他的这篇文章具有很大的参考价值。 在翻译本文的过程中恰逢今年的 Nobel 物理学奖颁给了美国物理学家 D. J. Gross, H. D. Politzer 和 F. Wilczek, 以表彰他们对 “发现强相互作用理论中的渐进自由” 所做出的贡献。 这是物理学家因标准模型领域中的工作又一次获奖。 标准模型虽已不再 fancy, 却枝繁叶茂、 沉稳如昔。 最后提醒读者一下, 原文所附的参考文献实在太多, 为了节省时间, 同时也考虑到阅读译文的读者一般不会去阅读原始文献, 就大都从略了, 只以译者注的方式保留了正文直接提及的一小部分。 不过参考文献之多也从一个侧面表明 Weinberg 的这篇文章对历史的叙述具有很大的严谨性。
我被要求对标准模型的诞生过程做一个回顾。 这种回顾的一种很自然的做法是把整个故事叙述成一系列的辉煌思想和实验, 但在这里我同时也要述及这一过程中的一些错误的理解和错误的出发点, 以及为什么一些有可能取得的进展在很长时间里一直没有取得。 研究科学家们未能理解、 或理解错了的东西在我看来往往是科学史中最令人感兴趣的部分。 不管怎么说, 这是标准模型中我非常熟悉的一个方面, 因为正如你们将会看到的, 这些错误中也有我的一份。
我将把大家带回到标准模型之前的二十世纪五十年代, 从那里开始叙述。 那是一个充满挫折与困惑的年代。 四十年代末量子电动力学的成功曾给基本粒子理论带来了一段蓬勃的发展, 但很快整个领域就崩溃了。 人们发现弱相互作用的四费米子理论 (four-fermion theory) 中的无穷大无法用在量子电动力学中得到过辉煌应用的重整化方法来消除。 四费米子理论在最低级近似下毫无问题, 但一推进到下一级近似就会遇到无法消除的无穷大。 强相互作用面临的则是一个不同的问题, 构筑一个象最初的汤川理论 (Yukawa theory) 那样的可重整的强相互作用理论并不成问题, 但由于相互作用很强, 微扰理论变得毫无用处, 因此人们无法用这些理论做任何现实的计算。 在我们对弱和强相互作用理论的理解中一个更深层的问题是所有这些理论都没有任何理性基础。 弱相互作用理论只是为了拟合当时已知的实验数据而拼凑起来的, 而强相互作用理论则干脆没有任何证据。
在那之后的一段时间里许多人对量子场论丧失了信心。 那时理论物理学家分成了两个派别, 以原子波函数为比拟分别被称为径向物理学家 (radial physicists) 和角向物理学家 (azimuthal physicists) [译者注: 这种分类可能来自 S. Glashow, 可参阅他的自传性科普作品《Interactions: A Journey Through the Mind of A Particle Physicistand the Matter of This World》]。 径向物理学家们关心的是动力学, 尤其是强相互作用的动力学。 他们很少涉及弱相互作用。 他们中的一些人试图只运用普遍原理 - 比如色散关系及 Regge 极点展开 - 来构筑理论。 他们希望最终能为强相互作用构筑一个完全脱离量子场论的纯 S 矩阵理论。 至于弱相互作用则留待未来。 角向物理学家们比较谦虚。 他们的工作原则是不必试图去理解强相互作用的动力学, 他们研究的是一类无需这种理解便可作出预言的东西 - 对称性原理。
但是对对称性原理的理解却遇到了巨大的困难。 当时已知的对称性原理有许多种, 其中很大一部分是近似的。 可以回溯到 1936 年的同位旋对称性是一个显而易见的例子。 奇异数守恒在弱相互作用下的破缺在一开始就为人所知。 到了 1956 年甚至连神圣的时空对称性 P 和 PT 都被发现在弱相互作用下破缺, CP 守恒也在 1964 年被发现只是近似的。 六十年代早期发现的 SU(3) “八正道” (eightfold way) 对称性即使在强相互作用下也至多只是一个粗略的近似。 这给我们提出了一个很基本的问题。 许多角向物理学家相信对称性原理是对大自然最深层简单性的一种描述。 那么近似对称性原理又算什么呢? 是大自然的近似简单性吗?
从五六十年代的挫折与困惑中萌生出了三个出色的想法。 这些想法经过了很长时间才成熟, 但它们奠定了今天粒子物理学的基础。 我在这里强调我们花费了很长时间才意识到这些想法究竟适用于什么, 部分的原因是为了鼓励今天的超弦理论学家, 我想他们也有一些需要假以时日才会成熟的出色想法。
我要提到的第一个出色的想法是夸克模型, 由 Gell-Mann 与 Zweig 于 1964 年所独立提出。 对这种将强子视为由夸克与反夸克组成的想法的朴素运用使得人们可以从日益扩展的强子谱中看出些眉目来。 同时这种朴素夸克模型看来得到了 1968 年由 Friedman, Kendall 及 Taylor 在 SLAC 所领导的实验的支持, 这一实验类似于 1911 年 Geiger 与 Marsden 在卢瑟福实验室所做的实验。 在那一实验中 Geiger 与 Marsden 发现 α 粒子有时会被金核以大角度散射, 卢瑟福由此推知原子的质量集中分布在后来被称为原子核的类似于点状粒子的东西上。 同样的, 在 SLAC 实验中人们发现电子有时会被原子核以大角度散射, 这一点被 Feynman 与 Bjorken 解释为中子与质子是由点粒子组成的。 这些被称为 “部分子” (parton) 的东西与 Gell-Mann 与 Zweig 的夸克有着很自然的联系。 但是显然所有这些都面临一个谜团, 那就是为什么我们从来没有见过任何夸克? 为什么, 比方说, 在油滴实验中从未发现过 1/3 电荷? 我记得 Dalitz 与 Lipkin 曾在各种会议上介绍过朴素夸克模型在强子物理中的种种成功预言, 但我依然固执地不为所动, 因为人人都知道我们找过夸克却从未找到过。
出现于五六十年代的第二个出色的想法是 (定域) 规范对称性。 (当然电动力学比这古老得多, 并且可以被视为是基于 U(1) 规范对称性, 但这并不是三十年代人们发展量子电动力学时所采用的观点。) Yang 和 Mills 于 1954 年构筑了一个规范理论, 它所基于的不是电动力学中的简单 U(1) 规范群, 而是同位旋守恒中的 SU(2) 群。 他们希望这会成为强相互作用的理论。 这是一个优美的理论, 因为对称性确定了相互作用的形式。 特别是, 由于规范群是非阿贝尔的 (“荷” 彼此不对易), 在规范玻色子之间存在自相互作用, 就象广义相对论中的引力子自相互作用那样。 这正是让粒子理论学家们从心底里感到高兴的东西。
其他一些物理学家研究了非阿贝尔规范理论的量子化, 但他们通常并没有将之运用于任何已知相互作用中去的想法。 他们中的一些人把对 Yang-Mills 理论量子化的研究视为是对他们真正想要解决的问题 - 广义相对论量子化 - 的热身练习。 直到几年之后物理学家们才开始将 Yang-Mills 的想法用到弱相互作用中去。 之所以如此, 部分的原因是因为在 1954 年, 正如你们也许还记得, β 衰变相互作用被认为是标量、 张量或许还有赝标量四费米子相互作用的混合。 这是一系列错误实验的结果, 这些实验中的每一个一经发现是错误的就立刻又被另一个错误实验所取代。 直到 1957-58 年人们才普遍意识到弱相互作用事实上是矢量与轴矢量相互作用的混合, 是那种可以由中间矢量玻色子传递的相互作用。
在这之后许多人提出了有关中间矢量玻色子的理论, 但是除了 1958 年 Bludman 及 1964 年 Salam 与 Ward 的论文外, 这些理论普遍没有提到定域非阿贝尔对称性。 (比方说, 除去刚才所提到的例外, 那些论文都没有包含具有定域非阿贝尔对称性的理论所特有的矢量玻色子间的相互作用四次方项。) 我将在后面更多地提及这些论文中的一部分。
从一开始起, 将 Yang-Mills 方法无论应用到弱还是强相互作用中所遇到的主要障碍就是质量问题。 规范对称性禁止规范玻色子带有任何质量, 而任何无质量的规范玻色子显然早该被发现了。 在所有文献 12 所列的论文 [译者注: 这些论文是 J. Schwinger, Ann. Phys. 2, 407 (1957); T. D. Lee and C. N. Yang, Phys. Rev. 108, 1611 (1957); 119, 1410 (1960); S. Bludman, Nuovo Cimento 9, 433 (1958); J. Leite-Lopes, Nucl. Phys. 8. 234 (1958); S. L. Glashow, Nucl. Phys. 22, 519 (1961); A. Salam and J. C. Ward, Phys. Lett. 13, 168 (1964).] 中, 质量项都是人为加入的。 但这样做破坏了规范理论的逻辑基础, 因为一旦加入质量, 促成这些理论的定域对称性原理就被破坏了。 此外人为地加入质量项显然也有损理论的预言能力。 最后, 通过几位作者在六十年代的工作, 人们意识到非阿贝尔规范理论加上一个人为的质量项是不可重整的, 从而并不比当初的四费米子弱相互作用更高明。
我想提的第三个出色的想法是自发对称性破缺: 即拉氏量可能具有一些真空所不具有的对称性。 物理学家们通过两种途径得到了这一想法。
第一种途径来源于一种根本性的错误理解。 我们还记得当时所面临的一个问题就是如何理解各种已知的近似对称性。 许多人, 包括我自己, 一开始都有一种错觉, 以为如果描述自然的场方程中的一个严格对称性自发破缺, 那它将在实验上表现为近似对称性。 这是非常错误的, 但那正是我们当时所认为的。 (Heisenberg 直到 1975 年还相信这一点。) 一开始这似乎为我们理解近似对称性 - 比如同位旋, 八正道等 - 提供了很大的希望。 因此 1961 年由 Goldstone 提出, 并在次年被 Goldstone, Salam 及我本人证明的每一个自发对称性破缺都必定伴随着一个无质量无自旋粒子被认为是一个可怕的挫折。 因为我们知道并不存在这种无质量的 Goldstone 粒子 - 否则的话它们在很多年前就该被发现了 - 这看上去切断了由自发对称性破缺带给我们的希望。 受这一失望的刺激, 1964 年 Higgs 试图找到一种突破 Goldstone 定理的方法。 他发现如果原先的对称性不是象同位旋那样的整体对称性, 而是象当初的 Yang-Mills 理论中的定域同位旋对称性那样的规范对称性, 则 Goldstone 定理将不成立。 在那种情况下 Goldstone 粒子仍然存在, 但它将变成规范粒子的螺旋性为零的分量, 从而使后者获得质量。 几乎与此同时, Englert 和 Brout 也发现了同样的现象, 不过他们的动机有所不同: 他们试图回到用 Yang-Mills 理论构筑一个由有质量矢量玻色子传递的强相互作用理论的想法上来。 这一现象在更早的时候还被 Anderson 在非相对论情形下注意到过。
得到自发对称性破缺的第二种途径是研究半轻子弱相互作用中的流 - 矢量及轴矢量流。 1958 年 Goldberger 和 Treiman 推导出了 π 介子衰变常数、 β 衰变轴矢量耦合常数及强相互作用耦合常数间的一个关系式 [译者注: Goldberger-Treiman 关系式是 GπN=2mNgA/Fπ, 其中 Fπ 为 π 介子衰变常数, gA 是 β 衰变轴矢量耦合常数, GπN 是强相互作用耦合常数, 它与实验的误差只有 6% 左右]。 这一公式的精度远高于从推导中所用的极其失真的近似中所能期待的。 为了解释 Goldberger-Treiman 公式的成功, 在接下来的几年中一些理论物理学家提出了轴矢量流部分守恒的想法, 即轴矢量流的散度虽然不等于零, 但正比于 π 介子场。 严格地讲这是毫无意义的, 因为任何具有正确量子数的场算符, 比如轴矢量流的散度本身, 都可以被称为 π 介子场。 大自然并未给出任何特定的场算符作为这个或那个粒子的场。 1960 年 Nambu 对这一想法作了极大的澄清。 他指出在一个轴矢量严格而非部分守恒的理想世界里, 非零的核子质量及轴矢量耦合常数的存在将要求 π 介子的质量为零。 在足够小的动量传递中, 这种无质量 π 介子将主导轴矢量流单核子矩阵元的赝标量部分, 这可以导出此前导致部分流守恒的那个 Goldberger-Treiman 公式。 Nambu 和 Jona-Lasinio 提出了一个动力学模型, 在其中轴矢量流严格守恒, 他们证明了在束缚态能谱中的确包含了无质量的 π 介子。
在这一工作中基本没有提到自发对称性破缺。 特别是, 由于 Nambu 及其合作者有关软 π 介子 (soft pion) 相互作用的工作只涉及单个软 π 介子, 因此没有必要指定一个特殊的破缺对称群。 他们的工作大都是以简单 U(1) 作为对称群的。 Nambu 等人和 Gell-Mann 等人一样, 强调的是 β 衰变中流的性质而不是对称性破缺。 Nambu, 特别在他与 Jona-Lasinio 的论文中, 将他所做的工作描述成与 Bardeen, Cooper 及 Schrieffer 有关超导的成功理论相类似。 超导体正是电磁规范对称性自发破缺的产物, 不过谁也别指望在 BCS 的经典论文中找到提及自发对称性破缺的文句。 Anderson 曾经意识到自发对称性破缺在超导理论中的重要性, 但他几乎是唯一意识到这一点的凝聚态物理学家。
半轻子弱相互作用中的流继续吸引着 Gell-Mann 及其合作者的注意, 他们提出了与 Heisenberg 1925 年有关量子力学的著名论文中计算原子电偶极跃迁矩阵元相同的方法, 即先推导出流的对易关系式, 然后插入对合适的中间态的求和。 这被称为流代数方法。 除了其它一些成果外, 这一方法被 Adler 与 Weisberger 用来推导他们有关 β 衰变轴矢量耦合常数的著名公式 [译者注: 即 Adler-Weisberger 求和定则]。
到了 1965 年左右, 我们开始对所有这些发展以及它们彼此间的关联有了一些更现代的理解。 人们意识到强相互作用必定有一个破缺的 SU(2)×SU(2) 对称性, 包含了普通的同位旋变换及对核子左右旋部分具有相反作用的手征同位旋变换。 与我及其他人曾经以为的不同的是, 这种破缺的对称性在实验上并不表现为普通的近似对称性。 如果一个严格的对称性自发破缺, 其效应将出现在对无质量 Goldstone 玻色子 - 对于 SU(2)×SU(2) 来说即 π 介子 - 的低能相互作用的预言上。 Goldberger-Treiman 公式就是有关 “软 π 介子” 的公式中的一个, 它应该被理解为是关于零动量下 π 介子-核子耦合的公式。 当然 SU(2)×SU(2) 只是强相互作用下的近似对称性, 因此 π 介子不是无质量粒子, 而是我后来称之为 “赝 Goldstone 玻色子” 的质量特别小的粒子。
用这种观点人们可以计算一些与电弱相互作用、 半轻子矢量及轴矢量流无关, 而只与强相互作用有关的东西。 自 1965 年起, Tomozawa 和我独立计算了 π 介子-核子散射长度, 我并计算了 π-π 散射长度。 由于这些过程含有不止一个软 π 介子, 因此 SU(2)×SU(2) 对称性对于计算结果至关重要。 这些工作有着双重的影响。 影响之一是它倾向于结束强相互作用 S 矩阵理论的生命, 因为 S 矩阵哲学虽没什么错误, 但其实际应用有赖于低能 π-π 相互作用很强这一前提, 而这些新的计算表明那种相互作用在低能下实际上是很弱的。 这些工作在一段时间里还倾向于削弱人们对 Higgs, Brout 及 Englert 所做的东西的兴趣, 我们不再希望除掉那些可恶的 Goldstone 玻色子了 (Higgs 曾希望除掉它们), 因为现在 π 介子被证认为了 Goldstone 玻色子, 或很接近于 Goldstone 玻色子。
这把我带到了由我和 Salam 独立发展起来的电弱理论。 遗憾的是 Salam 不能在这里向我们介绍将他引向这一理论的思路, 因此我只能叙述我自己的工作。 我在 1967 年的出发点是一个旧目标, 即回到 Yang-Mills, 发展一个有关强相互作用的规范理论。 只不过我所选的规范群是那些有关软 π 介子的成功预言背后的 SU(2)×SU(2) 对称群。 我沿用了一个旧的想法, 假定这一理论中的矢量规范玻色子是 ρ 介子, 而轴矢量规范玻色子是我在同年稍早时提出的为推导谱函数求和定则而需插入的 π-ρ 道 (π-ρ channel) 中的加强态 a1 介子。 在 SU(2)×SU(2) 是严格但自发破缺的假定下, 我得到了早些时候 Higgs, Brout 及 Englert 得到的结果, 即 Goldstone 玻色子消失, 而 a1 介子变成有质量的粒子。 但是由于同位旋子群没有破缺, ρ 介子仍是无质量的 (与 Kibble 的普遍结果一致)。 我当然可以人为地为 a1 和 ρ 引进一个共同质量。 这初看起来可以给出令人振奋的结果: π 介子重新以 Goldstone 玻色子的形式出现, 对称性自发破缺使得 a1 的质量比 ρ 大一个因子 √2, 而这正是从谱函数求和定则中得到的因子。 有一段时间我因此而感到鼓舞, 不过那样的理论实在太难看了。 还是那个老问题: 人为地引进 ρ 介子或其它任何规范粒子的质量破坏了理论的逻辑基础并有损其预言能力, 同时它还使得理论不可重整。 因此我深感失望。
然后我忽然意识到这其实是一种完全正确的理论, 只不过被我用到了错误的相互作用上。 这些想法的真正用武之地不是强相互作用, 而是弱及电磁相互作用。 那里会有一个自发破缺的规范对称性 (很可能不是 SU(2)×SU(2)), 导致一个有质量的规范玻色子, 但那个粒子和 a1 介子无关, 而是弱相互作用的中间矢量玻色子。 规范对称性的某些生成元也许不会自发破缺, 它所对应的无质量粒子不是 ρ 介子, 而是光子。 规范对称性将是严格的, 无需人为地引进质量。
我需要一个具体的模型来实现这些普遍想法。 当时我对夸克的存在毫无信心, 因此我决定研究轻子。 有点任意地, 我决定只考虑作用在一代轻子 - 即左旋电子、 电子中微子及右旋电子 (不包括反粒子) - 上的对称性。 对于这些粒子, 可能具有的最大规范群是 SU(2)×U(1)×U(1)。 其中的一个 U(1) 可以作为对应于轻子数守恒的规范群。 由于我知道轻子数在很高的精度上守恒, 因此这个 U(1) 应该不是自发破缺的。 我还知道并不存在与轻子数有关的无质量规范玻色子, 因为按照 Lee 和 Yang 曾经作过的论证, 这样的粒子会产生足以和引力相匹敌的相互作用。 因此我决定剔除这部分规范群, 只保留 SU(2)×U(1) 规范对称性。 由此所得的规范粒子便是通常被称为 W 粒子的有质量带电粒子 (及其反粒子), 一个被我称为 Z 粒子的有质量中性矢量粒子, 以及光子。 这些规范玻色子彼此间以及它们与轻子间的相互作用由规范对称性所确定。 后来当我回溯五十年代后期及六十年代早期有关中间矢量玻色子理论的文献时, 发现整体 SU(2)×U(1) 群结构早在 1961 年就被 Glashow 提出过了。 我只有到更晚些时侯才知道 Salam 和 Ward 1964 年的独立工作。 我想我们四人之所以各自独立地得到了相同的 SU(2)×U(1) 群结构, 完全是因为对于这种只包含一代轻子的费米子成员, 你很难得到其他群。 与以前不同的是现在理论建立在了严格对称性的基础上, 虽然这种对称性是自发破缺的。
这种对称性的自发破缺不仅给出了中间矢量玻色子的质量, 也给出了电子 (以及另一组轻子二重态中的 μ 子) 的质量。 唯一能够通过真空期待值产生电子和 μ 子质量的标量粒子必须构成 SU(2)×U(1) 双重态, 分别带电荷 +e 和 0。 为简单起见, 我假定这就是理论中仅有的标量粒子, 这使得理论具有很强的预言能力。 它使得我们能够用一个单一未知角度 θ 来计算 W 和 Z 粒子的质量及他们的耦合常数。 无论 θ 的数值多大, W 和 Z 粒子的质量都很大, 大到足以逃脱检测。 这类结果也适用于多组标量双重态。 (顺便提一下, 这些预言也可以通过 "technicolor" 理论得到, 在那种理论中电弱规范对称性通过强作用 [译者注: technicolor 中的 “强作用” 并非我们通常所说的 “强相互作用”, 虽然在很多模型中它具有类似于后者的渐进自由] 而自发破缺, 如 Susskind 和我本人在 12 年后所实现的。 这直到今天仍是一种可能性, 但这类 technicolor 理论有其自身的问题, 我更相信当初的标量双重态。)
除了通过一个单一角度预言 W 和 Z 粒子的质量及相互作用外, 电弱理论还有一个不仅当时未能证实, 直到现在还悬而未决的惊人预言。 一个复标量场双重态可以写成四个实场。 SU(2)×U(1) 规范对称性中的三个自发破缺的对称性消去了与这些标量场相关的三个 Goldstone 粒子。 唯一剩下的有质量中性标量粒子 - 作为一个实标量粒子 - 可以在实验上被观测到。 这个于 1967 年首次出现在物理文献中的粒子直到今天仍未在实验上被观测到。 它的耦合常数早在当年的论文中就被预言了, 但它的质量始终是未知的。 为了将这一粒子与 Goldstone 粒子区分开, 它被称为 Higgs 玻色子。 现在它是一个重要的实验目标。 如果有多组双重态 (如超对称理论中那样), 则将会有不只一个这类粒子, 其中的某一些有可能是带电荷的。
Salam 和我都猜测电弱理论是可重整的, 因为我们是从一个明显可重整的理论出发的。 但是带有对称性自发破缺的理论具有新的微扰展开式, 因此问题是可重整性是否在新的微扰展开式中得到了保留。 我们都认为答案是肯定的, 但都无法证明它。 我无法替 Salam 回答, 但我可以告诉大家为什么我无法证明它。 那是因为当时我不喜欢唯一能够证明它的方法: 路径积分方法。 量子化有两种方法: 可以回溯到二十世纪二十年代的旧算符方法, 以及 Feynman 的路径积分方法。 当我在研究生院及后来的阅读中学到路径积分方法时, 它在我看来并不比算符方法更有力, 却有不少故弄玄虚之处。 我试图在算符方法中能够使用的最方便的规范 - 幺正规范 (unitary gauge) - 下来证明电弱理论的可重整性, 却无法做到。 我建议我的一个学生去做, 他也无法做到。 直到今天也没有人能够在那一规范下做到。 我没有意识到的是路径积分方法能够让我们使用一些无法作为量子场算符的约束条件而引进的规范, 因此它提供给我们用以构筑规范不变理论的可能规范要多得多。
虽然我没能意识到路径积分的潜力, 但 Veltman 和他的学生 't Hooft 意识到了。 1971 年 't Hooft 用路径积分定义了一个规范, 在其中可以很明显地看到, 只带最简相互作用的对称性自发破缺非阿贝尔规范理论具有一个对重整化至关重要的性质, 即在所有阶的微扰理论中都只出现有限多个无穷大。 这还不能算是证明了理论的可重整性, 因为拉氏量受到严格但自发破缺的对称性的约束。 在这种 't Hooft 规范中理论很明显只有有限多个无穷大, 但我们怎么才能确信它们正好与受规范不变性所限的原有理论中的参数严格匹配, 从而可以被参数的重新定义所吸收呢? 这最初是在 1972 年由 Lee 和 Zinn-Justin [译者注: 此处的 Lee 是 B. W. Lee] 及 't Hooft 和 Veltman 所证明, 后来被 Becchi, Rouet, Stora 及 Tyutin 纳入了一个优美的框架中。 不过我要说在 't Hooft 1971 年的论文 (对我来说再加上稍后 B. W. Lee 的相关论文) 之后多数理论物理学家对理论的可重整性已深信不疑, 起码那些热衷于这类理论的理论物理学家是如此。
用今天的观点来看, 把这么多注意力集中到可重整性上似乎是很奇怪的。 就象广义相对论那样, 旧的四费米子弱相互作用理论可以被视为有效量子场论, 在足够低的能量下完全适用, 加上几个额外自由参数后甚至可以计算量子修正。 这类理论中的展开参数是能量除以某个特征质量。 只要局限在能量的某个阶数上, 你只需有限多个耦合类型来吸收所有的无穷大。 但是这类理论在能量高于特征质量时不可避免地会丧失所有的预言能力。 对于弱相互作用的四费米子理论来说, 特征质量显然不高于 300 GeV。 我们现在知道, 它实际上是在 W 质量的量级上。 电弱理论可重整的重要性并不在于无穷大可以被重整化所消除, 而在于理论具有在远高于 300 GeV, 甚至可能高到 Planck 标度的能量下描述弱及电磁相互作用的潜力。 寻找可重整的弱相互作用理论是正确的策略, 但 - 如后来所知 - 不是出于我们原先以为的理由。
电弱理论的这些引人入胜之处并不表明理论是正确的 - 后者需要由实验来判断。 在论证了电弱理论可重整后人们开始认真看待它的实验预言。 理论预言了中性流的存在, 但这已是老生常谈。 有关弱中性流的建议可回溯到 Gamov 和 Teller, Kemmer, 及 Wentzel 1937 年的论文。 中性流后来出现在 1958 年 Bludman 的论文及文献 12 [译者注: 详见上篇译者注] 所列的全部后续论文中, 其中当然包括 Glashow, Salam 及 Wald 的论文。 但是现在我们对中性流的强度已略有所知。 1972 年我研究了半轻子中性流的观测难度, 结果发现尽管在电弱理论中它们比普通的带电流弱一些, 但没有弱到无法观测的程度。 特别是, 我指出中微子-质子弹性散射与对应的非弹性带电流反应之比与未知角度 θ 有关, 数值大约在 0.15 到 0.25 之间。 1970 年的一个实验曾对这个比值给出过 0.12±0.06 的结果。 但是当时的实验者不相信他们真的观测到了中性流, 因此没有声称在带电流的大约 12% 的强度上观测到了中性流, 而只把结果引述为一个强度上界。 这一比值的最小理论值 0.15 对应于 sin2θ=0.25, 与我们今天所知的正确值相去不远。 我怀疑 1970 年的那次实验其实已经观测到了中性流, 但你只有声称你做出了发现才能够得到发现的荣誉。
中性流是 1973 年在 CERN 被发现的。 我想今天晚些时侯会有人提到这个, 因此就不细说了。 一开始中性流反应的数据看上去和电弱理论完全一致, 但随后的一系列实验给出了相反的结果。 最严重的挑战来自于 1976 年的两个原子物理实验, 那两个实验似乎表明铋原子中由电弱理论的中性流电子-核子相互作用所产生的宇称破缺效应没有出现在预期的强度上。 对于大多数理论物理学家来说, 这些实验并不足以挑战弱相互作用产生于规范对称性自发破缺这一基本思想, 但对于用 SU(2)×U(1) 实现这一思想的具体方式形成了严重威胁。 在那段时间里人们尝试了许多其它模型, 但无一例外地极为难看。 最终, 中性流中的宇称破缺在预期的强度上于 1978 年在 SLAC 的电子-核子散射中被观测到了, 至此物理学家们基本认定电弱理论是正确的。
标准模型的另一半是量子色动力学。 在二十世纪七十年代早期, 电弱理论的成功重新引起了人们对 Yang-Mills 理论的兴趣。 1973 年 Gross, Wilczek 和 Politzer 独立地发现非阿贝尔规范理论具有令人瞩目的渐进自由性质。 他们用 Gell-Mann 和 Low 所提出, 并于 1970 年经 Callan, Symanzik, Coleman 和 Jackiw 重新发展的重整化群方法定义了一个作为能量的函数的有效规范耦合常数, 并证明了在没有太多费米子的 Yang-Mills 理论中耦合常数在能量趋于无穷时趋于零。 ('t Hooft 曾于 1972 年发现并在一个会议上提出过同样的结果, 但他因忙于其它研究而延误了对这一结果及其推论的发表, 从而没有引起人们的注意。) 从对重子分类及中性介子衰变成两个光子的研究中人们已经知道每种 flavor 的夸克, 如 u, d, s 等, 都必须有三种颜色。 因此强相互作用的规范对称性被很自然地选为作用在夸克的三值色量子数上的 SU(3) 规范群。 随后 Gross 和 Wilczek 及 Georgi 和 Politzer 运用 Wilson 算符乘积展开论述了这一理论中耦合常数随能量的增加而减少可以解释为什么在 1968 年的 Friedman-Kendall-Taylor 实验中 “部分子” 看上去处于弱耦合之中。
但是有一个很大的问题仍然悬而未决: 那就是怎么处理无质量的 SU(3) 规范玻色子, 即胶子? Politzer, Gross 和 Wilczek 的原始论文提议用类似电弱理论中的规范对称性自发破缺来解释为什么观察不到无质量的胶子, 即假定胶子的质量大到无法被观察到。 紧接着, 几位作者彼此独立地提出了一个不同的方案, 那就是规范对称性根本就没有破缺, 胶子的确是无质量的, 而我们无法看到它们的原因和我们无法看到夸克一样, 是非阿贝尔规范理论的特殊红外行为 - 色禁锢 - 所致。 带色荷的粒子如夸克和胶子永远无法孤立存在。 这一点从未被证明过。 现在 Cray 基金会 (Cray Foundation) 为能够严格证明这一点的人提供了一百万美元的奖金, 不过由于这一点肯定是正确的, 因此我和其他一些人一样很乐意把证明留给数学家去做。
从这一时期电弱及强相互作用理论的发展中产生出的精彩结果之一是对发现已久的那些旧的近似对称性的理解。 现在我们知道那些对称性之所以近似是因为它们只是偶然出现的, 根本不是基础对称性。 可重整的量子色动力学必须遵守奇异数守恒和电荷共轭不变性, 以及 - 除了我没有时间介绍的一个非微扰效应外 [译者注: 指由瞬子 (instanton) 导致的 θ-真空 (θ-vacua) 效应] - 宇称和时间反演不变性。 假如强相互作用中有标量场参与, 就象旧的汤川理论那样, 则这些都将不成立。 这些结果不仅在美学上令人愉快, 而且极其重要, 因为假如可重整的相互作用会破坏, 比如, 奇异数守恒, 或宇称守恒, 那么即使你不把这些相互作用引入理论, 它们也会被高阶弱相互作用在精细结构常数的一阶效应中产生出来。 那样强相互作用中的宇称或奇异数守恒就会在百分之一的量级上被破缺, 这显然与观测不符。
如果我们进一步假定 u, d, s 夸克的质量很小, 则无需对它们的质量之比做任何假设就可以得到理论具有近似 SU(3)×SU(3) 对称性的结论。 这不仅包含了八正道, 而且也包含了二十世纪六十年代用以推导各种低能介子定理的自发破缺的 SU(2)×SU(2) 对称性。 更进一步, 由很小的 u, d, s 夸克质量造成的这一内在 SU(3)×SU(3) 对称性的破缺可以导致 Gell-Mann——Okubo 质量公式, 并证实 1965 年推导 π-π 散射长度时所做的对称性破缺假设。 最后, 这类理论中的弱相互作用半轻子流会自动成为与这一 SU(3)×SU(3) 对称性相对应的对称流。 对理论物理学家来说这真是一个快乐的时刻。 忽然之间, 在跟近似对称性厮混了这么多年后一切都纳入了正轨。 那些对称性完全不是自然界的基础对称性, 而只是由量子色动力学的可重整性及电弱相互作用的规范起源所决定的偶然效应。
在结束之前, 我还必须提一下另外两个话题: 弱相互作用中的奇异数不守恒问题, 以及第三代夸克和轻子及 W 和 Z 粒子的发现。
人们早就发现交换电荷的半轻子相互作用会破坏奇异数守恒, 因此任何带电 W 玻色子必须具有改变一个单位奇异数的耦合。 由此可知交换 W 粒子对有可能产生诸如 K-K 转换那样的奇异数改变两个单位的过程。 利用一个在 W 质量附近的紫外截断, 这类过程的振幅只受 W 质量倒数的平方所抑制, 就象一个一阶弱相互作用, 这与已知的 K1-K2 质量差的大小相矛盾。 解决这一困难的一个方法是 1970 年由 Glashow, Iliopoulos 和 Maiani 所发现的。 他们发现假如有两组夸克双重态以同样的方式参与弱相互作用, 则上述破坏奇异数守恒的一阶弱相互作用将会消失。 这要求存在第四种夸克, 它被称为 c 夸克 (charm quark)。 他们还证明有了这第四种夸克, SU(2) 理论中的中性流将不会破坏奇异数守恒。 1972 年 我证明了这种 GIM 机制对 SU(2)×U(1) 电弱理论中的 Z 交换也适用。 引进第四种夸克还有一个令人愉快的结果, 那便是由 Bouchiat, Iliopoulos, Meyer 和我本人独立证明的, 能够破坏理论规范不变性的三角反常全部互消。 K1-K2 质量差作为 c 夸克质量的函数被 Gaillard 和 Lee [译者注: 此处的 Lee 也是 B. W. Lee] 所计算, 他们利用这一质量差的实验值估计出了 c 夸克的质量大约为 1.5 GeV。 更进一步, 利用量子色动力学的新结果, 即强耦合在这种量级的能量上并不真的很强, Applequist 和 Politzer 于 1974 年 (刚好早于 J/ψ 粒子的发现) 预言 c 和 c 的束缚态将是一个相当窄的峰。 这个很窄的束缚态 [译者注: 即 J/ψ 粒子] 于 1974 年被发现, 从而不仅为第四种夸克的存在, 而且为夸克整体的实在性提供了立即而生动的例证。
为使标准模型完备所剩下的就是第三代粒子: τ 轻子 (及其对应的中微子) 以及 b 和 t 夸克了。 这一代的存在为 CP 破缺提供了一种新的机制, 即出现在半轻子弱相互作用中的 Cabibbo-Kobayashi-Maskawa 矩阵中的复相位。 第三代夸克与前两代夸克在这一矩阵中只是微弱混合这一事实甚至可以很自然地说明这一机制中的 CP 破缺很弱。 不幸的是, 对 Cabibbo-Kobayashi-Maskawa 矩阵中的质量和相位的解释迄今仍困扰着我们。
这些发展随着 W 和中间玻色子 Z 的发现于 1983 年达到了顶峰。 这些粒子的质量被证明是可以用极高的精度加以测量的, 从而使得电弱理论与实验的严格对比成为可能。 这些对比甚至开始为确定迄今尚未发现的标量粒子的性质提供线索。
那是一个伟大的时代。 二十世纪六十年代和七十年代是一个实验物理学家和理论物理学家彼此关注, 在合作中做出伟大发现的年代。 自那以后在基本粒子物理中我们再也不曾有过同样伟大的日子, 但是我希望再过几年, 随着这个实验室 [译者注: 即欧洲核子中心] 新一代实验的开始, 我们能够看到那个伟大时代的回归。
二零零四年十月二十三日译于纽约
http://www.changhai.org/
- 作者:Steven Weinberg 译者:卢昌海 -
译者序:
2003 年, 物理学家们相聚在欧洲核子中心 (CERN) 纪念中性流发现三十周年及 W 与 Z 粒子发现二十周年。 著名理论物理学家 Steven Weinberg 在纪念会上作了题为 "The Making of the Standard Model" 的演讲。 这一演讲经整理后发表于 Eur. Phys. J. C34 5-13, 2004, 本文便是据此而译。 Weinberg 是电弱统一理论的提出者之一, 亲身参与了标准模型诞生过程中一系列激动人心的进展, 因此他的这篇文章具有很大的参考价值。 在翻译本文的过程中恰逢今年的 Nobel 物理学奖颁给了美国物理学家 D. J. Gross, H. D. Politzer 和 F. Wilczek, 以表彰他们对 “发现强相互作用理论中的渐进自由” 所做出的贡献。 这是物理学家因标准模型领域中的工作又一次获奖。 标准模型虽已不再 fancy, 却枝繁叶茂、 沉稳如昔。 最后提醒读者一下, 原文所附的参考文献实在太多, 为了节省时间, 同时也考虑到阅读译文的读者一般不会去阅读原始文献, 就大都从略了, 只以译者注的方式保留了正文直接提及的一小部分。 不过参考文献之多也从一个侧面表明 Weinberg 的这篇文章对历史的叙述具有很大的严谨性。
我被要求对标准模型的诞生过程做一个回顾。 这种回顾的一种很自然的做法是把整个故事叙述成一系列的辉煌思想和实验, 但在这里我同时也要述及这一过程中的一些错误的理解和错误的出发点, 以及为什么一些有可能取得的进展在很长时间里一直没有取得。 研究科学家们未能理解、 或理解错了的东西在我看来往往是科学史中最令人感兴趣的部分。 不管怎么说, 这是标准模型中我非常熟悉的一个方面, 因为正如你们将会看到的, 这些错误中也有我的一份。
我将把大家带回到标准模型之前的二十世纪五十年代, 从那里开始叙述。 那是一个充满挫折与困惑的年代。 四十年代末量子电动力学的成功曾给基本粒子理论带来了一段蓬勃的发展, 但很快整个领域就崩溃了。 人们发现弱相互作用的四费米子理论 (four-fermion theory) 中的无穷大无法用在量子电动力学中得到过辉煌应用的重整化方法来消除。 四费米子理论在最低级近似下毫无问题, 但一推进到下一级近似就会遇到无法消除的无穷大。 强相互作用面临的则是一个不同的问题, 构筑一个象最初的汤川理论 (Yukawa theory) 那样的可重整的强相互作用理论并不成问题, 但由于相互作用很强, 微扰理论变得毫无用处, 因此人们无法用这些理论做任何现实的计算。 在我们对弱和强相互作用理论的理解中一个更深层的问题是所有这些理论都没有任何理性基础。 弱相互作用理论只是为了拟合当时已知的实验数据而拼凑起来的, 而强相互作用理论则干脆没有任何证据。
在那之后的一段时间里许多人对量子场论丧失了信心。 那时理论物理学家分成了两个派别, 以原子波函数为比拟分别被称为径向物理学家 (radial physicists) 和角向物理学家 (azimuthal physicists) [译者注: 这种分类可能来自 S. Glashow, 可参阅他的自传性科普作品《Interactions: A Journey Through the Mind of A Particle Physicistand the Matter of This World》]。 径向物理学家们关心的是动力学, 尤其是强相互作用的动力学。 他们很少涉及弱相互作用。 他们中的一些人试图只运用普遍原理 - 比如色散关系及 Regge 极点展开 - 来构筑理论。 他们希望最终能为强相互作用构筑一个完全脱离量子场论的纯 S 矩阵理论。 至于弱相互作用则留待未来。 角向物理学家们比较谦虚。 他们的工作原则是不必试图去理解强相互作用的动力学, 他们研究的是一类无需这种理解便可作出预言的东西 - 对称性原理。
但是对对称性原理的理解却遇到了巨大的困难。 当时已知的对称性原理有许多种, 其中很大一部分是近似的。 可以回溯到 1936 年的同位旋对称性是一个显而易见的例子。 奇异数守恒在弱相互作用下的破缺在一开始就为人所知。 到了 1956 年甚至连神圣的时空对称性 P 和 PT 都被发现在弱相互作用下破缺, CP 守恒也在 1964 年被发现只是近似的。 六十年代早期发现的 SU(3) “八正道” (eightfold way) 对称性即使在强相互作用下也至多只是一个粗略的近似。 这给我们提出了一个很基本的问题。 许多角向物理学家相信对称性原理是对大自然最深层简单性的一种描述。 那么近似对称性原理又算什么呢? 是大自然的近似简单性吗?
从五六十年代的挫折与困惑中萌生出了三个出色的想法。 这些想法经过了很长时间才成熟, 但它们奠定了今天粒子物理学的基础。 我在这里强调我们花费了很长时间才意识到这些想法究竟适用于什么, 部分的原因是为了鼓励今天的超弦理论学家, 我想他们也有一些需要假以时日才会成熟的出色想法。
我要提到的第一个出色的想法是夸克模型, 由 Gell-Mann 与 Zweig 于 1964 年所独立提出。 对这种将强子视为由夸克与反夸克组成的想法的朴素运用使得人们可以从日益扩展的强子谱中看出些眉目来。 同时这种朴素夸克模型看来得到了 1968 年由 Friedman, Kendall 及 Taylor 在 SLAC 所领导的实验的支持, 这一实验类似于 1911 年 Geiger 与 Marsden 在卢瑟福实验室所做的实验。 在那一实验中 Geiger 与 Marsden 发现 α 粒子有时会被金核以大角度散射, 卢瑟福由此推知原子的质量集中分布在后来被称为原子核的类似于点状粒子的东西上。 同样的, 在 SLAC 实验中人们发现电子有时会被原子核以大角度散射, 这一点被 Feynman 与 Bjorken 解释为中子与质子是由点粒子组成的。 这些被称为 “部分子” (parton) 的东西与 Gell-Mann 与 Zweig 的夸克有着很自然的联系。 但是显然所有这些都面临一个谜团, 那就是为什么我们从来没有见过任何夸克? 为什么, 比方说, 在油滴实验中从未发现过 1/3 电荷? 我记得 Dalitz 与 Lipkin 曾在各种会议上介绍过朴素夸克模型在强子物理中的种种成功预言, 但我依然固执地不为所动, 因为人人都知道我们找过夸克却从未找到过。
出现于五六十年代的第二个出色的想法是 (定域) 规范对称性。 (当然电动力学比这古老得多, 并且可以被视为是基于 U(1) 规范对称性, 但这并不是三十年代人们发展量子电动力学时所采用的观点。) Yang 和 Mills 于 1954 年构筑了一个规范理论, 它所基于的不是电动力学中的简单 U(1) 规范群, 而是同位旋守恒中的 SU(2) 群。 他们希望这会成为强相互作用的理论。 这是一个优美的理论, 因为对称性确定了相互作用的形式。 特别是, 由于规范群是非阿贝尔的 (“荷” 彼此不对易), 在规范玻色子之间存在自相互作用, 就象广义相对论中的引力子自相互作用那样。 这正是让粒子理论学家们从心底里感到高兴的东西。
其他一些物理学家研究了非阿贝尔规范理论的量子化, 但他们通常并没有将之运用于任何已知相互作用中去的想法。 他们中的一些人把对 Yang-Mills 理论量子化的研究视为是对他们真正想要解决的问题 - 广义相对论量子化 - 的热身练习。 直到几年之后物理学家们才开始将 Yang-Mills 的想法用到弱相互作用中去。 之所以如此, 部分的原因是因为在 1954 年, 正如你们也许还记得, β 衰变相互作用被认为是标量、 张量或许还有赝标量四费米子相互作用的混合。 这是一系列错误实验的结果, 这些实验中的每一个一经发现是错误的就立刻又被另一个错误实验所取代。 直到 1957-58 年人们才普遍意识到弱相互作用事实上是矢量与轴矢量相互作用的混合, 是那种可以由中间矢量玻色子传递的相互作用。
在这之后许多人提出了有关中间矢量玻色子的理论, 但是除了 1958 年 Bludman 及 1964 年 Salam 与 Ward 的论文外, 这些理论普遍没有提到定域非阿贝尔对称性。 (比方说, 除去刚才所提到的例外, 那些论文都没有包含具有定域非阿贝尔对称性的理论所特有的矢量玻色子间的相互作用四次方项。) 我将在后面更多地提及这些论文中的一部分。
从一开始起, 将 Yang-Mills 方法无论应用到弱还是强相互作用中所遇到的主要障碍就是质量问题。 规范对称性禁止规范玻色子带有任何质量, 而任何无质量的规范玻色子显然早该被发现了。 在所有文献 12 所列的论文 [译者注: 这些论文是 J. Schwinger, Ann. Phys. 2, 407 (1957); T. D. Lee and C. N. Yang, Phys. Rev. 108, 1611 (1957); 119, 1410 (1960); S. Bludman, Nuovo Cimento 9, 433 (1958); J. Leite-Lopes, Nucl. Phys. 8. 234 (1958); S. L. Glashow, Nucl. Phys. 22, 519 (1961); A. Salam and J. C. Ward, Phys. Lett. 13, 168 (1964).] 中, 质量项都是人为加入的。 但这样做破坏了规范理论的逻辑基础, 因为一旦加入质量, 促成这些理论的定域对称性原理就被破坏了。 此外人为地加入质量项显然也有损理论的预言能力。 最后, 通过几位作者在六十年代的工作, 人们意识到非阿贝尔规范理论加上一个人为的质量项是不可重整的, 从而并不比当初的四费米子弱相互作用更高明。
我想提的第三个出色的想法是自发对称性破缺: 即拉氏量可能具有一些真空所不具有的对称性。 物理学家们通过两种途径得到了这一想法。
第一种途径来源于一种根本性的错误理解。 我们还记得当时所面临的一个问题就是如何理解各种已知的近似对称性。 许多人, 包括我自己, 一开始都有一种错觉, 以为如果描述自然的场方程中的一个严格对称性自发破缺, 那它将在实验上表现为近似对称性。 这是非常错误的, 但那正是我们当时所认为的。 (Heisenberg 直到 1975 年还相信这一点。) 一开始这似乎为我们理解近似对称性 - 比如同位旋, 八正道等 - 提供了很大的希望。 因此 1961 年由 Goldstone 提出, 并在次年被 Goldstone, Salam 及我本人证明的每一个自发对称性破缺都必定伴随着一个无质量无自旋粒子被认为是一个可怕的挫折。 因为我们知道并不存在这种无质量的 Goldstone 粒子 - 否则的话它们在很多年前就该被发现了 - 这看上去切断了由自发对称性破缺带给我们的希望。 受这一失望的刺激, 1964 年 Higgs 试图找到一种突破 Goldstone 定理的方法。 他发现如果原先的对称性不是象同位旋那样的整体对称性, 而是象当初的 Yang-Mills 理论中的定域同位旋对称性那样的规范对称性, 则 Goldstone 定理将不成立。 在那种情况下 Goldstone 粒子仍然存在, 但它将变成规范粒子的螺旋性为零的分量, 从而使后者获得质量。 几乎与此同时, Englert 和 Brout 也发现了同样的现象, 不过他们的动机有所不同: 他们试图回到用 Yang-Mills 理论构筑一个由有质量矢量玻色子传递的强相互作用理论的想法上来。 这一现象在更早的时候还被 Anderson 在非相对论情形下注意到过。
得到自发对称性破缺的第二种途径是研究半轻子弱相互作用中的流 - 矢量及轴矢量流。 1958 年 Goldberger 和 Treiman 推导出了 π 介子衰变常数、 β 衰变轴矢量耦合常数及强相互作用耦合常数间的一个关系式 [译者注: Goldberger-Treiman 关系式是 GπN=2mNgA/Fπ, 其中 Fπ 为 π 介子衰变常数, gA 是 β 衰变轴矢量耦合常数, GπN 是强相互作用耦合常数, 它与实验的误差只有 6% 左右]。 这一公式的精度远高于从推导中所用的极其失真的近似中所能期待的。 为了解释 Goldberger-Treiman 公式的成功, 在接下来的几年中一些理论物理学家提出了轴矢量流部分守恒的想法, 即轴矢量流的散度虽然不等于零, 但正比于 π 介子场。 严格地讲这是毫无意义的, 因为任何具有正确量子数的场算符, 比如轴矢量流的散度本身, 都可以被称为 π 介子场。 大自然并未给出任何特定的场算符作为这个或那个粒子的场。 1960 年 Nambu 对这一想法作了极大的澄清。 他指出在一个轴矢量严格而非部分守恒的理想世界里, 非零的核子质量及轴矢量耦合常数的存在将要求 π 介子的质量为零。 在足够小的动量传递中, 这种无质量 π 介子将主导轴矢量流单核子矩阵元的赝标量部分, 这可以导出此前导致部分流守恒的那个 Goldberger-Treiman 公式。 Nambu 和 Jona-Lasinio 提出了一个动力学模型, 在其中轴矢量流严格守恒, 他们证明了在束缚态能谱中的确包含了无质量的 π 介子。
在这一工作中基本没有提到自发对称性破缺。 特别是, 由于 Nambu 及其合作者有关软 π 介子 (soft pion) 相互作用的工作只涉及单个软 π 介子, 因此没有必要指定一个特殊的破缺对称群。 他们的工作大都是以简单 U(1) 作为对称群的。 Nambu 等人和 Gell-Mann 等人一样, 强调的是 β 衰变中流的性质而不是对称性破缺。 Nambu, 特别在他与 Jona-Lasinio 的论文中, 将他所做的工作描述成与 Bardeen, Cooper 及 Schrieffer 有关超导的成功理论相类似。 超导体正是电磁规范对称性自发破缺的产物, 不过谁也别指望在 BCS 的经典论文中找到提及自发对称性破缺的文句。 Anderson 曾经意识到自发对称性破缺在超导理论中的重要性, 但他几乎是唯一意识到这一点的凝聚态物理学家。
半轻子弱相互作用中的流继续吸引着 Gell-Mann 及其合作者的注意, 他们提出了与 Heisenberg 1925 年有关量子力学的著名论文中计算原子电偶极跃迁矩阵元相同的方法, 即先推导出流的对易关系式, 然后插入对合适的中间态的求和。 这被称为流代数方法。 除了其它一些成果外, 这一方法被 Adler 与 Weisberger 用来推导他们有关 β 衰变轴矢量耦合常数的著名公式 [译者注: 即 Adler-Weisberger 求和定则]。
到了 1965 年左右, 我们开始对所有这些发展以及它们彼此间的关联有了一些更现代的理解。 人们意识到强相互作用必定有一个破缺的 SU(2)×SU(2) 对称性, 包含了普通的同位旋变换及对核子左右旋部分具有相反作用的手征同位旋变换。 与我及其他人曾经以为的不同的是, 这种破缺的对称性在实验上并不表现为普通的近似对称性。 如果一个严格的对称性自发破缺, 其效应将出现在对无质量 Goldstone 玻色子 - 对于 SU(2)×SU(2) 来说即 π 介子 - 的低能相互作用的预言上。 Goldberger-Treiman 公式就是有关 “软 π 介子” 的公式中的一个, 它应该被理解为是关于零动量下 π 介子-核子耦合的公式。 当然 SU(2)×SU(2) 只是强相互作用下的近似对称性, 因此 π 介子不是无质量粒子, 而是我后来称之为 “赝 Goldstone 玻色子” 的质量特别小的粒子。
用这种观点人们可以计算一些与电弱相互作用、 半轻子矢量及轴矢量流无关, 而只与强相互作用有关的东西。 自 1965 年起, Tomozawa 和我独立计算了 π 介子-核子散射长度, 我并计算了 π-π 散射长度。 由于这些过程含有不止一个软 π 介子, 因此 SU(2)×SU(2) 对称性对于计算结果至关重要。 这些工作有着双重的影响。 影响之一是它倾向于结束强相互作用 S 矩阵理论的生命, 因为 S 矩阵哲学虽没什么错误, 但其实际应用有赖于低能 π-π 相互作用很强这一前提, 而这些新的计算表明那种相互作用在低能下实际上是很弱的。 这些工作在一段时间里还倾向于削弱人们对 Higgs, Brout 及 Englert 所做的东西的兴趣, 我们不再希望除掉那些可恶的 Goldstone 玻色子了 (Higgs 曾希望除掉它们), 因为现在 π 介子被证认为了 Goldstone 玻色子, 或很接近于 Goldstone 玻色子。
这把我带到了由我和 Salam 独立发展起来的电弱理论。 遗憾的是 Salam 不能在这里向我们介绍将他引向这一理论的思路, 因此我只能叙述我自己的工作。 我在 1967 年的出发点是一个旧目标, 即回到 Yang-Mills, 发展一个有关强相互作用的规范理论。 只不过我所选的规范群是那些有关软 π 介子的成功预言背后的 SU(2)×SU(2) 对称群。 我沿用了一个旧的想法, 假定这一理论中的矢量规范玻色子是 ρ 介子, 而轴矢量规范玻色子是我在同年稍早时提出的为推导谱函数求和定则而需插入的 π-ρ 道 (π-ρ channel) 中的加强态 a1 介子。 在 SU(2)×SU(2) 是严格但自发破缺的假定下, 我得到了早些时候 Higgs, Brout 及 Englert 得到的结果, 即 Goldstone 玻色子消失, 而 a1 介子变成有质量的粒子。 但是由于同位旋子群没有破缺, ρ 介子仍是无质量的 (与 Kibble 的普遍结果一致)。 我当然可以人为地为 a1 和 ρ 引进一个共同质量。 这初看起来可以给出令人振奋的结果: π 介子重新以 Goldstone 玻色子的形式出现, 对称性自发破缺使得 a1 的质量比 ρ 大一个因子 √2, 而这正是从谱函数求和定则中得到的因子。 有一段时间我因此而感到鼓舞, 不过那样的理论实在太难看了。 还是那个老问题: 人为地引进 ρ 介子或其它任何规范粒子的质量破坏了理论的逻辑基础并有损其预言能力, 同时它还使得理论不可重整。 因此我深感失望。
然后我忽然意识到这其实是一种完全正确的理论, 只不过被我用到了错误的相互作用上。 这些想法的真正用武之地不是强相互作用, 而是弱及电磁相互作用。 那里会有一个自发破缺的规范对称性 (很可能不是 SU(2)×SU(2)), 导致一个有质量的规范玻色子, 但那个粒子和 a1 介子无关, 而是弱相互作用的中间矢量玻色子。 规范对称性的某些生成元也许不会自发破缺, 它所对应的无质量粒子不是 ρ 介子, 而是光子。 规范对称性将是严格的, 无需人为地引进质量。
我需要一个具体的模型来实现这些普遍想法。 当时我对夸克的存在毫无信心, 因此我决定研究轻子。 有点任意地, 我决定只考虑作用在一代轻子 - 即左旋电子、 电子中微子及右旋电子 (不包括反粒子) - 上的对称性。 对于这些粒子, 可能具有的最大规范群是 SU(2)×U(1)×U(1)。 其中的一个 U(1) 可以作为对应于轻子数守恒的规范群。 由于我知道轻子数在很高的精度上守恒, 因此这个 U(1) 应该不是自发破缺的。 我还知道并不存在与轻子数有关的无质量规范玻色子, 因为按照 Lee 和 Yang 曾经作过的论证, 这样的粒子会产生足以和引力相匹敌的相互作用。 因此我决定剔除这部分规范群, 只保留 SU(2)×U(1) 规范对称性。 由此所得的规范粒子便是通常被称为 W 粒子的有质量带电粒子 (及其反粒子), 一个被我称为 Z 粒子的有质量中性矢量粒子, 以及光子。 这些规范玻色子彼此间以及它们与轻子间的相互作用由规范对称性所确定。 后来当我回溯五十年代后期及六十年代早期有关中间矢量玻色子理论的文献时, 发现整体 SU(2)×U(1) 群结构早在 1961 年就被 Glashow 提出过了。 我只有到更晚些时侯才知道 Salam 和 Ward 1964 年的独立工作。 我想我们四人之所以各自独立地得到了相同的 SU(2)×U(1) 群结构, 完全是因为对于这种只包含一代轻子的费米子成员, 你很难得到其他群。 与以前不同的是现在理论建立在了严格对称性的基础上, 虽然这种对称性是自发破缺的。
这种对称性的自发破缺不仅给出了中间矢量玻色子的质量, 也给出了电子 (以及另一组轻子二重态中的 μ 子) 的质量。 唯一能够通过真空期待值产生电子和 μ 子质量的标量粒子必须构成 SU(2)×U(1) 双重态, 分别带电荷 +e 和 0。 为简单起见, 我假定这就是理论中仅有的标量粒子, 这使得理论具有很强的预言能力。 它使得我们能够用一个单一未知角度 θ 来计算 W 和 Z 粒子的质量及他们的耦合常数。 无论 θ 的数值多大, W 和 Z 粒子的质量都很大, 大到足以逃脱检测。 这类结果也适用于多组标量双重态。 (顺便提一下, 这些预言也可以通过 "technicolor" 理论得到, 在那种理论中电弱规范对称性通过强作用 [译者注: technicolor 中的 “强作用” 并非我们通常所说的 “强相互作用”, 虽然在很多模型中它具有类似于后者的渐进自由] 而自发破缺, 如 Susskind 和我本人在 12 年后所实现的。 这直到今天仍是一种可能性, 但这类 technicolor 理论有其自身的问题, 我更相信当初的标量双重态。)
除了通过一个单一角度预言 W 和 Z 粒子的质量及相互作用外, 电弱理论还有一个不仅当时未能证实, 直到现在还悬而未决的惊人预言。 一个复标量场双重态可以写成四个实场。 SU(2)×U(1) 规范对称性中的三个自发破缺的对称性消去了与这些标量场相关的三个 Goldstone 粒子。 唯一剩下的有质量中性标量粒子 - 作为一个实标量粒子 - 可以在实验上被观测到。 这个于 1967 年首次出现在物理文献中的粒子直到今天仍未在实验上被观测到。 它的耦合常数早在当年的论文中就被预言了, 但它的质量始终是未知的。 为了将这一粒子与 Goldstone 粒子区分开, 它被称为 Higgs 玻色子。 现在它是一个重要的实验目标。 如果有多组双重态 (如超对称理论中那样), 则将会有不只一个这类粒子, 其中的某一些有可能是带电荷的。
Salam 和我都猜测电弱理论是可重整的, 因为我们是从一个明显可重整的理论出发的。 但是带有对称性自发破缺的理论具有新的微扰展开式, 因此问题是可重整性是否在新的微扰展开式中得到了保留。 我们都认为答案是肯定的, 但都无法证明它。 我无法替 Salam 回答, 但我可以告诉大家为什么我无法证明它。 那是因为当时我不喜欢唯一能够证明它的方法: 路径积分方法。 量子化有两种方法: 可以回溯到二十世纪二十年代的旧算符方法, 以及 Feynman 的路径积分方法。 当我在研究生院及后来的阅读中学到路径积分方法时, 它在我看来并不比算符方法更有力, 却有不少故弄玄虚之处。 我试图在算符方法中能够使用的最方便的规范 - 幺正规范 (unitary gauge) - 下来证明电弱理论的可重整性, 却无法做到。 我建议我的一个学生去做, 他也无法做到。 直到今天也没有人能够在那一规范下做到。 我没有意识到的是路径积分方法能够让我们使用一些无法作为量子场算符的约束条件而引进的规范, 因此它提供给我们用以构筑规范不变理论的可能规范要多得多。
虽然我没能意识到路径积分的潜力, 但 Veltman 和他的学生 't Hooft 意识到了。 1971 年 't Hooft 用路径积分定义了一个规范, 在其中可以很明显地看到, 只带最简相互作用的对称性自发破缺非阿贝尔规范理论具有一个对重整化至关重要的性质, 即在所有阶的微扰理论中都只出现有限多个无穷大。 这还不能算是证明了理论的可重整性, 因为拉氏量受到严格但自发破缺的对称性的约束。 在这种 't Hooft 规范中理论很明显只有有限多个无穷大, 但我们怎么才能确信它们正好与受规范不变性所限的原有理论中的参数严格匹配, 从而可以被参数的重新定义所吸收呢? 这最初是在 1972 年由 Lee 和 Zinn-Justin [译者注: 此处的 Lee 是 B. W. Lee] 及 't Hooft 和 Veltman 所证明, 后来被 Becchi, Rouet, Stora 及 Tyutin 纳入了一个优美的框架中。 不过我要说在 't Hooft 1971 年的论文 (对我来说再加上稍后 B. W. Lee 的相关论文) 之后多数理论物理学家对理论的可重整性已深信不疑, 起码那些热衷于这类理论的理论物理学家是如此。
用今天的观点来看, 把这么多注意力集中到可重整性上似乎是很奇怪的。 就象广义相对论那样, 旧的四费米子弱相互作用理论可以被视为有效量子场论, 在足够低的能量下完全适用, 加上几个额外自由参数后甚至可以计算量子修正。 这类理论中的展开参数是能量除以某个特征质量。 只要局限在能量的某个阶数上, 你只需有限多个耦合类型来吸收所有的无穷大。 但是这类理论在能量高于特征质量时不可避免地会丧失所有的预言能力。 对于弱相互作用的四费米子理论来说, 特征质量显然不高于 300 GeV。 我们现在知道, 它实际上是在 W 质量的量级上。 电弱理论可重整的重要性并不在于无穷大可以被重整化所消除, 而在于理论具有在远高于 300 GeV, 甚至可能高到 Planck 标度的能量下描述弱及电磁相互作用的潜力。 寻找可重整的弱相互作用理论是正确的策略, 但 - 如后来所知 - 不是出于我们原先以为的理由。
电弱理论的这些引人入胜之处并不表明理论是正确的 - 后者需要由实验来判断。 在论证了电弱理论可重整后人们开始认真看待它的实验预言。 理论预言了中性流的存在, 但这已是老生常谈。 有关弱中性流的建议可回溯到 Gamov 和 Teller, Kemmer, 及 Wentzel 1937 年的论文。 中性流后来出现在 1958 年 Bludman 的论文及文献 12 [译者注: 详见上篇译者注] 所列的全部后续论文中, 其中当然包括 Glashow, Salam 及 Wald 的论文。 但是现在我们对中性流的强度已略有所知。 1972 年我研究了半轻子中性流的观测难度, 结果发现尽管在电弱理论中它们比普通的带电流弱一些, 但没有弱到无法观测的程度。 特别是, 我指出中微子-质子弹性散射与对应的非弹性带电流反应之比与未知角度 θ 有关, 数值大约在 0.15 到 0.25 之间。 1970 年的一个实验曾对这个比值给出过 0.12±0.06 的结果。 但是当时的实验者不相信他们真的观测到了中性流, 因此没有声称在带电流的大约 12% 的强度上观测到了中性流, 而只把结果引述为一个强度上界。 这一比值的最小理论值 0.15 对应于 sin2θ=0.25, 与我们今天所知的正确值相去不远。 我怀疑 1970 年的那次实验其实已经观测到了中性流, 但你只有声称你做出了发现才能够得到发现的荣誉。
中性流是 1973 年在 CERN 被发现的。 我想今天晚些时侯会有人提到这个, 因此就不细说了。 一开始中性流反应的数据看上去和电弱理论完全一致, 但随后的一系列实验给出了相反的结果。 最严重的挑战来自于 1976 年的两个原子物理实验, 那两个实验似乎表明铋原子中由电弱理论的中性流电子-核子相互作用所产生的宇称破缺效应没有出现在预期的强度上。 对于大多数理论物理学家来说, 这些实验并不足以挑战弱相互作用产生于规范对称性自发破缺这一基本思想, 但对于用 SU(2)×U(1) 实现这一思想的具体方式形成了严重威胁。 在那段时间里人们尝试了许多其它模型, 但无一例外地极为难看。 最终, 中性流中的宇称破缺在预期的强度上于 1978 年在 SLAC 的电子-核子散射中被观测到了, 至此物理学家们基本认定电弱理论是正确的。
标准模型的另一半是量子色动力学。 在二十世纪七十年代早期, 电弱理论的成功重新引起了人们对 Yang-Mills 理论的兴趣。 1973 年 Gross, Wilczek 和 Politzer 独立地发现非阿贝尔规范理论具有令人瞩目的渐进自由性质。 他们用 Gell-Mann 和 Low 所提出, 并于 1970 年经 Callan, Symanzik, Coleman 和 Jackiw 重新发展的重整化群方法定义了一个作为能量的函数的有效规范耦合常数, 并证明了在没有太多费米子的 Yang-Mills 理论中耦合常数在能量趋于无穷时趋于零。 ('t Hooft 曾于 1972 年发现并在一个会议上提出过同样的结果, 但他因忙于其它研究而延误了对这一结果及其推论的发表, 从而没有引起人们的注意。) 从对重子分类及中性介子衰变成两个光子的研究中人们已经知道每种 flavor 的夸克, 如 u, d, s 等, 都必须有三种颜色。 因此强相互作用的规范对称性被很自然地选为作用在夸克的三值色量子数上的 SU(3) 规范群。 随后 Gross 和 Wilczek 及 Georgi 和 Politzer 运用 Wilson 算符乘积展开论述了这一理论中耦合常数随能量的增加而减少可以解释为什么在 1968 年的 Friedman-Kendall-Taylor 实验中 “部分子” 看上去处于弱耦合之中。
但是有一个很大的问题仍然悬而未决: 那就是怎么处理无质量的 SU(3) 规范玻色子, 即胶子? Politzer, Gross 和 Wilczek 的原始论文提议用类似电弱理论中的规范对称性自发破缺来解释为什么观察不到无质量的胶子, 即假定胶子的质量大到无法被观察到。 紧接着, 几位作者彼此独立地提出了一个不同的方案, 那就是规范对称性根本就没有破缺, 胶子的确是无质量的, 而我们无法看到它们的原因和我们无法看到夸克一样, 是非阿贝尔规范理论的特殊红外行为 - 色禁锢 - 所致。 带色荷的粒子如夸克和胶子永远无法孤立存在。 这一点从未被证明过。 现在 Cray 基金会 (Cray Foundation) 为能够严格证明这一点的人提供了一百万美元的奖金, 不过由于这一点肯定是正确的, 因此我和其他一些人一样很乐意把证明留给数学家去做。
从这一时期电弱及强相互作用理论的发展中产生出的精彩结果之一是对发现已久的那些旧的近似对称性的理解。 现在我们知道那些对称性之所以近似是因为它们只是偶然出现的, 根本不是基础对称性。 可重整的量子色动力学必须遵守奇异数守恒和电荷共轭不变性, 以及 - 除了我没有时间介绍的一个非微扰效应外 [译者注: 指由瞬子 (instanton) 导致的 θ-真空 (θ-vacua) 效应] - 宇称和时间反演不变性。 假如强相互作用中有标量场参与, 就象旧的汤川理论那样, 则这些都将不成立。 这些结果不仅在美学上令人愉快, 而且极其重要, 因为假如可重整的相互作用会破坏, 比如, 奇异数守恒, 或宇称守恒, 那么即使你不把这些相互作用引入理论, 它们也会被高阶弱相互作用在精细结构常数的一阶效应中产生出来。 那样强相互作用中的宇称或奇异数守恒就会在百分之一的量级上被破缺, 这显然与观测不符。
如果我们进一步假定 u, d, s 夸克的质量很小, 则无需对它们的质量之比做任何假设就可以得到理论具有近似 SU(3)×SU(3) 对称性的结论。 这不仅包含了八正道, 而且也包含了二十世纪六十年代用以推导各种低能介子定理的自发破缺的 SU(2)×SU(2) 对称性。 更进一步, 由很小的 u, d, s 夸克质量造成的这一内在 SU(3)×SU(3) 对称性的破缺可以导致 Gell-Mann——Okubo 质量公式, 并证实 1965 年推导 π-π 散射长度时所做的对称性破缺假设。 最后, 这类理论中的弱相互作用半轻子流会自动成为与这一 SU(3)×SU(3) 对称性相对应的对称流。 对理论物理学家来说这真是一个快乐的时刻。 忽然之间, 在跟近似对称性厮混了这么多年后一切都纳入了正轨。 那些对称性完全不是自然界的基础对称性, 而只是由量子色动力学的可重整性及电弱相互作用的规范起源所决定的偶然效应。
在结束之前, 我还必须提一下另外两个话题: 弱相互作用中的奇异数不守恒问题, 以及第三代夸克和轻子及 W 和 Z 粒子的发现。
人们早就发现交换电荷的半轻子相互作用会破坏奇异数守恒, 因此任何带电 W 玻色子必须具有改变一个单位奇异数的耦合。 由此可知交换 W 粒子对有可能产生诸如 K-K 转换那样的奇异数改变两个单位的过程。 利用一个在 W 质量附近的紫外截断, 这类过程的振幅只受 W 质量倒数的平方所抑制, 就象一个一阶弱相互作用, 这与已知的 K1-K2 质量差的大小相矛盾。 解决这一困难的一个方法是 1970 年由 Glashow, Iliopoulos 和 Maiani 所发现的。 他们发现假如有两组夸克双重态以同样的方式参与弱相互作用, 则上述破坏奇异数守恒的一阶弱相互作用将会消失。 这要求存在第四种夸克, 它被称为 c 夸克 (charm quark)。 他们还证明有了这第四种夸克, SU(2) 理论中的中性流将不会破坏奇异数守恒。 1972 年 我证明了这种 GIM 机制对 SU(2)×U(1) 电弱理论中的 Z 交换也适用。 引进第四种夸克还有一个令人愉快的结果, 那便是由 Bouchiat, Iliopoulos, Meyer 和我本人独立证明的, 能够破坏理论规范不变性的三角反常全部互消。 K1-K2 质量差作为 c 夸克质量的函数被 Gaillard 和 Lee [译者注: 此处的 Lee 也是 B. W. Lee] 所计算, 他们利用这一质量差的实验值估计出了 c 夸克的质量大约为 1.5 GeV。 更进一步, 利用量子色动力学的新结果, 即强耦合在这种量级的能量上并不真的很强, Applequist 和 Politzer 于 1974 年 (刚好早于 J/ψ 粒子的发现) 预言 c 和 c 的束缚态将是一个相当窄的峰。 这个很窄的束缚态 [译者注: 即 J/ψ 粒子] 于 1974 年被发现, 从而不仅为第四种夸克的存在, 而且为夸克整体的实在性提供了立即而生动的例证。
为使标准模型完备所剩下的就是第三代粒子: τ 轻子 (及其对应的中微子) 以及 b 和 t 夸克了。 这一代的存在为 CP 破缺提供了一种新的机制, 即出现在半轻子弱相互作用中的 Cabibbo-Kobayashi-Maskawa 矩阵中的复相位。 第三代夸克与前两代夸克在这一矩阵中只是微弱混合这一事实甚至可以很自然地说明这一机制中的 CP 破缺很弱。 不幸的是, 对 Cabibbo-Kobayashi-Maskawa 矩阵中的质量和相位的解释迄今仍困扰着我们。
这些发展随着 W 和中间玻色子 Z 的发现于 1983 年达到了顶峰。 这些粒子的质量被证明是可以用极高的精度加以测量的, 从而使得电弱理论与实验的严格对比成为可能。 这些对比甚至开始为确定迄今尚未发现的标量粒子的性质提供线索。
那是一个伟大的时代。 二十世纪六十年代和七十年代是一个实验物理学家和理论物理学家彼此关注, 在合作中做出伟大发现的年代。 自那以后在基本粒子物理中我们再也不曾有过同样伟大的日子, 但是我希望再过几年, 随着这个实验室 [译者注: 即欧洲核子中心] 新一代实验的开始, 我们能够看到那个伟大时代的回归。
二零零四年十月二十三日译于纽约
http://www.changhai.org/
【转载】:弦论简评
by:格致人生
弦论简评
- 作者:Edward Witten 译者:卢昌海 -
译者序:
Feynman 在他著名讲义的开篇中曾经问过这样一个问题: 假如由于某种大灾难, 所有的科学知识都将丧失, 只能有一句话传于后世, 什么话能够用最少的词汇包含最多的信息? 我们效仿他来问一个小一点的问题: 假如由于某种小灾难, 所有有关超弦理论的知识都将丧失, 只能由一位物理学家写一篇文章传于后世, 该由谁来写那篇文章? 我们的问题虽小, 却有一个好处, 那就是 Feynman 的问题, 说实话, 未必能在物理学家中征得一致的答案, 而我们问题的答案我相信却是唯一的, 所有知道超弦理论的物理学家都能说出这一答案来, 那就是 Edward Witten。 在物理学界, 这个名字简直就是超弦理论的代名词。 本文所翻译的就是 Edward Witten 的一篇短文 (当然不是为了上述问题所假定的目的而写的), 题为 "Comments on String Theory", 是他在 2002 年 Sackler Colloquium on Challenges to the Standard Paradigm 上的演讲稿。 翻译这篇文章的目的之一是为了平衡几个月前所译的 Carlo Rovelli 的 量子引力对话录 中的观点。 那篇对话录 - 如我在译者序及注释中提到的 - 带有较为明显的主观倾向性, 对圈量子引力及超弦理论的评价不无失衡之处。 Witten 的文章绝大多数是研究性的, 这篇文章是他近两年少有的评论性文章, 只可惜它是演讲稿而非正式书面评论, 以逻辑严谨及结构优美而论, 与他的研究性文章颇有距离。
摘 要
超弦理论避免了试图将引力量子化时产生的紫外发散, 同时它也比传统量子场论更具预言能力, 比如它曾对粒子相互作用中超对称概念的提出有所助益。 在粒子相互作用的超对称统一理论所获得的成功中有迹象表明, 超对称在接近当前加速器的能量上就可能对基本粒子产生影响。 若果真如此, 则超对称将被实验证实, 并有可能具有宇宙学上的重要性, 与暗物质、 元素合成及宇宙暴胀相关。 磁单极在超弦理论的结构中起着重要作用, 因此如果超弦理论成立, 它们就必须存在, 虽然其密度也许已被宇宙暴胀稀释到无法观测的程度。 磁单极的质量在许多令人感兴趣的模型中都接近 Planck 质量, 但假如粒子相互作用与引力的统一 - 如最近某些模型所提出的 - 通过大的或弯曲的额外维度 (large or warped extra dimensions) 在接近 TeV 的能量上实现, 那么磁单极的质量就会小于 100 TeV。 在天体物理背景下这样的磁单极将是极端相对论性的。 在这类模型中, 超对称将毫无疑问出现在 TeV 能区。
在弦论的最基本层次上, 基本粒子被视为振动的弦而非点粒子。 一段弦可以有许多谐振模式, 不同的基本粒子就被诠释为这些不同的谐振模式。
在普通量子场论的 Feynman 图中, 粒子在相互作用顶点处分裂或复合 [图一(a)]。 这些是发生在确定时空点上的过程,
所有 Lorentz 观测者对这些过程都有一致的看法。 相反, 在弦的分裂或复合 [图一(b)] 中并不存在一个相互作用发生的确定时刻。
如果我们将相互作用的历史作为一个整体看待, 可以很明显地看到弦的一分为二, 但是任何一个历史小片段看起来都是一样的。 这暗示着弦论中一个最重要的事实:
一旦弦确定了, 它的相互作用也就确定了; 相互作用不必象在量子场论中那样额外引进。
将一个相对论性弦理论量子化被证明是十分微妙的。 二十世纪七十年代当人们试图对弦论量子化时, 一些异乎寻常的东西出现了。 其中最戏剧性的或许是闭弦的基态被证明是自旋为 2 的无质量场, 即引力子。 它们的相互作用与长波下的广义相对论一致, 因此弦论被认为是量子化的广义相对论。 这正是我们所期望的 - 因为量子力学与引力都是自然界的存在 - 而且是我们用别的方法无法得到的, 因为量子广义相对论的传统方法受到紫外发散的困扰。
用弦取代粒子可以消除量子广义相对论中的紫外发散。 粗略地讲, 这是由于用弦取代粒子起到了将 Feynman 图中的相互作用顶点涂抹开的作用, 就如 [图一] 所显示的那样。
弦论还可以象导出引力那样导出规范对称性。 比如开弦的基态恰好就是规范场。
超对称
除规范理论和引力外, 弦论还可以导出超对称, 这是一种玻色子与费米子之间的对称性。 事实上, 二十世纪七十年代出现于弦论 Raymond 模型中的世界面超对称 (worldsheet supersymmetry) 是超对称概念历史发源的一部分。 自然界并不具有严格的超对称, 但它可能具有内在的、 自发破缺的超对称, 就象粒子物理标准模型中的 SU(2)×U(1) 规范对称性那样。 事实上, 有迹象表明超对称在当前或拟议中的加速器实验所及的能区中就可能被检测到。
迹象之一是 “等级问题” (hierarchy problem), 它是 Dirac “大数问题” 的现代版。 Dirac 的问题是: 为什么两个质子间的引力比电力弱 10-38 倍? 在物理定律中出现如此微小的无量纲常数似乎是需要解释的。 这一问题的现代版则是: 为什么 W 与 Z 粒子 (这些规范粒子的质量与其它粒子的质量标度密切相关) 的质量比 Planck 质量小 10-17 倍? 超对称为这一问题提供了一种可能的答案, 因为它消除了影响 Higgs 质量的平方发散。
超对称的一个更加定量的迹象来自于强、 弱及电磁相互作用耦合常数的测量值。 它们与基本相互作用的大统一理论及超对称所导出的关系式在 1% 的精度内相符。
如果超对称 - 比如通过费米实验室或正在欧洲核子中心建造的新加速器 LHC - 被发现, 人们将从中得到许多有关超对称粒子质量及相互作用的信息。 现在描述超对称世界细节的理论模型比比皆是, 其中即使有一个的方向是正确的, 我们也无从知晓。
发现超对称无疑会给弦论带来极大的促进, 它将表明由弦论以大致相同的方式导出的三种基本结构 - 引力、 规范理论及超对称 - 都是对自然描述的组成部分。 现在还很难说弦论从发现和探索超对称中可能得到的促进会有多大, 因为我们不知道超对称质量谱会是什么样的, 以及从中能得到有关更高能物理学的什么样的线索。
超对称的发现还可能通过多种方式对宇宙学产生影响:
一个好的超对称破缺模型应该会为解决宇宙学常数极小 (或为零?) 的问题带来曙光, 因为在我们的半现实模型中, 超对称未破缺时宇宙学常数为零。 因此宇宙学常数极小不仅本身是一个很大的谜 - 不为零的观测值使之更为尖锐 - 而且缺乏对它的理解还会妨碍我们改进粒子物理模型。
我们现在所知的超对称破缺模型会导致 quintessence 类型的行为 (它们具有变化的标量场, 没有稳定的真空态), 但其参数和耦合却高度非现实。 总体上讲, 带标量场的 quintessence 看来是有问题的, 因为它们的相干耦合按说应该已经在对等效原理的检验中被检测到了。 有鉴于此, 带赝标量场 [即具有 V(a)=Λ4(1-cos(a/F)) 型相互作用势的轴子型 (axion-like) 场, 其中 Λ 和 F 为常数] 的 quintessence 也许更具吸引力, 因为这类模型没有相干耦合 (或者 - 考虑到宇称并不严格守恒 - 相干耦合被高度抑制)。 目前还只有少数文章讨论以赝标量场为基础的 quintessence 型模型 [2][3]。
五种超弦理论
1984 年, 人们依据弦的普遍性质的差异区分出了五种不同的超弦理论:
超弦理论与以前的物理学还有一个本质的差别。 在量子场论中通常有一些无量纲的可调参数, 比如精细结构常数 e2/4πhc ~ 1/137, 或者电子与 μ 子的质量比 me/mμ ~ 1/200。 这些可调参数大都出现在如 [图一] 所示的相互作用顶点中, 它们在过渡到超弦理论时会消失。 在超弦理论中不存在无量纲的可调参数, 取而代之的是标量场 φi, 它们的期待值确定了 e2/4πhc、 me/mμ 等。
这表明原则上 e2/4πhc、 me/mμ, 以及其它参数也许可以从作为 φi 函数的能量的极小值中计算出。 不过在实际上, 为了做到这一点我们必须理解超对称破缺及宇宙学常数, 因为如果超对称不破缺, V(φ) 将恒等于零。 这是发现超对称从而有机会对超对称破缺进行实验研究有益于超弦理论的又一个原因。
强耦合
要想回答超弦理论中的任何重大问题, 都会遇到一个困难, 那就是我们其实并不真正理解超弦理论到底是什么? 与其它理论 - 比如广义相对论 - 不同的是, 广义相对论是先有整体构思, 而超弦理论在二十世纪七十年代早期的出现通过的却是一系列修修补补的过程, 没有人知道整体图象。 一开始, 人们只能看到云层之上一片小小的山巅。 三十年后的今天, 我们已经拨开云雾见到了一些底层的结构, 但许多东西依然朦朦胧胧。
二十世纪九十年代的一个重大进展是发现如何将诸如 e2/4πhc=eφ 那样的参数外推到大数值上, 前提是超对称破缺可以忽略。 我们以前可以计算 e2/4πhc << 1 的情形, 现在可以对 e2/4πhc >> 1 的情形也有所了解了。
进行这种计算的基本技巧是研究磁单极及其它非微扰激发态。 当 e2/4πhc 很小时, 磁单极远比其它粒子重, 这使得它们不如其它粒子重要。 但是当 e2/4πhc 很大时, 磁单极就会变得很轻, 我们有可能用磁单极来描述理论。
我将以过度简化为代价来对此作一个定性地解释。 按照 Dirac, 磁单极所带的磁荷为 g=2πhc/e。 这表明当 e 很小时 g 远比 e 大, 而当 e 很大时 g 远比 e 小。 假如我们认为电子和磁单极的质量是电磁起源的话, 就可以预期在 e→∞ 时磁单极是轻粒子。
因此在 e2/4πhc→∞ 时我们需要一种以磁单极而非电子为基础的描述, 这种描述不是别的, 恰好就是另一种超弦理论, 或是原先理论的变种。 沿着这种思路人们最终明白了超弦理论其实只有一种, 以前以为不同的五种超弦理论只是一个更加完备的理论的不同极限, 这一理论有时被称为 M 理论。 M 理论是超统一的候选者, 尽管我们对它的了解还很少。
磁单极
磁单极在上述图景的发展中起着重要的作用, 因此假如超弦理论是正确的, 它们就应该存在。 但它们到底在哪里呢? 宇宙暴胀也许已经使磁单极的密度小到了难以观测的程度。 但这在二十多年前磁单极刚刚被提出时就是一种可能性, 如果到今天居然还只是一种可能性, 不免令人汗颜, 因此让我们期望有一定数量的磁单极幸存了下来。
磁单极的质量有多大呢? 以大统一类型的理论为基础的标准描述给出的质量在大统一能标以上, 比如 1017-1020 GeV (上限为带磁荷的 Reissner-Nordstrom 黑洞的质量, 最轻的磁单极不太可能比这更重)。
这么重的磁单极将不受有关磁单极通量的 Parker 上限 (Parker bound) 的影响, 因为这种磁单极所受的星系引力场作用远大于磁场作用。 据我所知, 若不是 MACRO 及其它实验排除了这种磁单极 - 哪怕是其中具有最大可能质量的那种 - 成为星系晕 (galactic halo) 主导成分的可能性, 它们是有可能成为暗物质候选者的。
除了大统一类型的理论外, 我们还应该考虑一些通过大的或弯曲的额外维度, 在低能下统一引力的模型 [5][6]。 假如这样的统一发生在 TeV 能量上, 那么磁单极的预期质量也许会在 10-100 TeV 左右。 这么轻的磁单极会被星系磁场加速到极端相对论性, 因此对它们的实验检测将完全不同于大统一标度上的磁单极 (最近的评估可参阅 [7])。 而且这种磁单极有可能没有被宇宙暴胀所稀释。 不过我们很难对最后这点做细致的描述, 因为目前有关低能统一的想法还只是构想而非具体模型。
有关超弦理论中的磁单极的另一个有趣的特点是在许多模型中 [8], 最小磁荷并不是 Dirac 量子 2πhc/e, 而要比它大 n 倍, 其中 n 是与模型有关的整数。 相对应的, 这些模型中存在电荷为 e/n 的非禁闭有质量粒子。 这些粒子的质量在大统一类型的理论中处在大统一能标上, 而在低能统一模型中则在 TeV 能标上。 宇宙线中电荷大于等于 e/5 并且 β>1/4 的粒子通量已经受到 MACRO 的明显限制 [9]。
具有讽刺意味的是, 尽管人们有时认为在 TeV 能量上统一引力使得该能量上的超对称不再有必要, 但假如超弦理论是正确的话, 它们反而会使 TeV 能量上的超对称变得不可避免。 为了说明这一点, 让我们来做一个简单的理想实验 (其实在前面考虑磁单极时就可以做)。 假如加速器实验果真发现了 TeV 能量上与量子引力的统一以及高维有效 Planck 标度为 TeV 量级, 那么, 如果量子引力要求在 Planck 能标上具有超对称 (超弦理论看来正是如此), 则我们就应该预期在 TeV 甚至更低的能量上发现超对称!
最近 Giddings 和 DeWolfe 的一篇文章对上面最后一点做了精彩的论述 [10] (也可以参阅 [11] 中的相关讨论)。 他们考虑了一种带有弯曲额外维度的情形, 对大多数状态来说理论的十维 Planck 质量处在或高于普通的大统一能标, 而且超对称在该能量上破缺。 但是由于度规的弯曲, 部分粒子态可以向下延伸到 TeV 或更低的能量。 在这一模型中, TeV 能标上的粒子包括一些引力子的激发态, 通过在 TeV 上包括这一低能粒子区 (该区域应该包含了我们熟悉的普通粒子) 的实验, 人们可以观测到基本粒子与引力的统一。 毫无疑问, 正如我们的简单分析所预示的, Giddings 和 DeWolfe 发现尽管大统一标度上的粒子具有大统一标度上的超对称质量分裂, TeV 能量上的粒子却具有 TeV 能量上的超对称质量分裂。 因此, 能够发现基本粒子与引力统一的实验也将能够发现超对称。
因此简而言之, 低能磁单极与低能超对称破缺应该是低能引力统一模型的普遍结果。
除此之外还有哪些地方可以看到超弦理论的效应? 如果我们可以通过 (由标量场真空期待值的变化所导致的) 自然常数的变化, 或等效原理的偏离, 或 Newton 引力定律在小尺度上的偏离, 检测到超弦理论中为数众多的标量场, 那将是不错的结果。 不过就自然常数的变化而言, 我个人对此比较悲观, 因为我觉得足以导致可检测的自然常数变化的标量场变化应当已经在对等效原理的检验中被发现了。 但我还是抱着一线希望。
在其它种种想象得到的可能性中, 我只提其中一种, 那就是 “弦论” 这一名称本身就暗示着如果理论是正确的, 弦有可能存在于天空中 (当然, 宇宙弦 - 尤其是重的宇宙弦 - 也可能已被宇宙暴胀极大地稀释了)。 人们可以想象弦在天空中的伸展, 还有其它带有大统一尺度张力的客体, 它们也许会出现在宇宙微波背景图象中。 不仅如此, 其它较轻的, 也许一直向下延伸到 TeV 能标上 (对应的张力约为 10-4 gm/cm) 的客体也同样有可能被观测到。 这些较轻的客体也许可以从, 比方说, 某种我们还不知道的规范群的额外 U(1) 因子的破缺中被产生出来。 它们将无法通过引力效应被观测到, 但如果它们在银河系 (或太阳系?[12]) 中大量存在的话, 也许可以通过其它方法检测到。 在那种情形下, 如果它们是超导电性的 (这对于从额外 U(1) 破缺中产生出的弦来说并不罕见 [13]), 也许可以通过它们对磁场的扰动以及它们与磁场相互作用时产生出的反物质云而被检测到。
参考文献
http://www.changhai.org/
- 作者:Edward Witten 译者:卢昌海 -
译者序:
Feynman 在他著名讲义的开篇中曾经问过这样一个问题: 假如由于某种大灾难, 所有的科学知识都将丧失, 只能有一句话传于后世, 什么话能够用最少的词汇包含最多的信息? 我们效仿他来问一个小一点的问题: 假如由于某种小灾难, 所有有关超弦理论的知识都将丧失, 只能由一位物理学家写一篇文章传于后世, 该由谁来写那篇文章? 我们的问题虽小, 却有一个好处, 那就是 Feynman 的问题, 说实话, 未必能在物理学家中征得一致的答案, 而我们问题的答案我相信却是唯一的, 所有知道超弦理论的物理学家都能说出这一答案来, 那就是 Edward Witten。 在物理学界, 这个名字简直就是超弦理论的代名词。 本文所翻译的就是 Edward Witten 的一篇短文 (当然不是为了上述问题所假定的目的而写的), 题为 "Comments on String Theory", 是他在 2002 年 Sackler Colloquium on Challenges to the Standard Paradigm 上的演讲稿。 翻译这篇文章的目的之一是为了平衡几个月前所译的 Carlo Rovelli 的 量子引力对话录 中的观点。 那篇对话录 - 如我在译者序及注释中提到的 - 带有较为明显的主观倾向性, 对圈量子引力及超弦理论的评价不无失衡之处。 Witten 的文章绝大多数是研究性的, 这篇文章是他近两年少有的评论性文章, 只可惜它是演讲稿而非正式书面评论, 以逻辑严谨及结构优美而论, 与他的研究性文章颇有距离。
摘 要
超弦理论避免了试图将引力量子化时产生的紫外发散, 同时它也比传统量子场论更具预言能力, 比如它曾对粒子相互作用中超对称概念的提出有所助益。 在粒子相互作用的超对称统一理论所获得的成功中有迹象表明, 超对称在接近当前加速器的能量上就可能对基本粒子产生影响。 若果真如此, 则超对称将被实验证实, 并有可能具有宇宙学上的重要性, 与暗物质、 元素合成及宇宙暴胀相关。 磁单极在超弦理论的结构中起着重要作用, 因此如果超弦理论成立, 它们就必须存在, 虽然其密度也许已被宇宙暴胀稀释到无法观测的程度。 磁单极的质量在许多令人感兴趣的模型中都接近 Planck 质量, 但假如粒子相互作用与引力的统一 - 如最近某些模型所提出的 - 通过大的或弯曲的额外维度 (large or warped extra dimensions) 在接近 TeV 的能量上实现, 那么磁单极的质量就会小于 100 TeV。 在天体物理背景下这样的磁单极将是极端相对论性的。 在这类模型中, 超对称将毫无疑问出现在 TeV 能区。
在弦论的最基本层次上, 基本粒子被视为振动的弦而非点粒子。 一段弦可以有许多谐振模式, 不同的基本粒子就被诠释为这些不同的谐振模式。
[图一] (a) 粒子一分为二的时空图 (b) 弦论中的对应时空图 |
将一个相对论性弦理论量子化被证明是十分微妙的。 二十世纪七十年代当人们试图对弦论量子化时, 一些异乎寻常的东西出现了。 其中最戏剧性的或许是闭弦的基态被证明是自旋为 2 的无质量场, 即引力子。 它们的相互作用与长波下的广义相对论一致, 因此弦论被认为是量子化的广义相对论。 这正是我们所期望的 - 因为量子力学与引力都是自然界的存在 - 而且是我们用别的方法无法得到的, 因为量子广义相对论的传统方法受到紫外发散的困扰。
用弦取代粒子可以消除量子广义相对论中的紫外发散。 粗略地讲, 这是由于用弦取代粒子起到了将 Feynman 图中的相互作用顶点涂抹开的作用, 就如 [图一] 所显示的那样。
弦论还可以象导出引力那样导出规范对称性。 比如开弦的基态恰好就是规范场。
超对称
除规范理论和引力外, 弦论还可以导出超对称, 这是一种玻色子与费米子之间的对称性。 事实上, 二十世纪七十年代出现于弦论 Raymond 模型中的世界面超对称 (worldsheet supersymmetry) 是超对称概念历史发源的一部分。 自然界并不具有严格的超对称, 但它可能具有内在的、 自发破缺的超对称, 就象粒子物理标准模型中的 SU(2)×U(1) 规范对称性那样。 事实上, 有迹象表明超对称在当前或拟议中的加速器实验所及的能区中就可能被检测到。
迹象之一是 “等级问题” (hierarchy problem), 它是 Dirac “大数问题” 的现代版。 Dirac 的问题是: 为什么两个质子间的引力比电力弱 10-38 倍? 在物理定律中出现如此微小的无量纲常数似乎是需要解释的。 这一问题的现代版则是: 为什么 W 与 Z 粒子 (这些规范粒子的质量与其它粒子的质量标度密切相关) 的质量比 Planck 质量小 10-17 倍? 超对称为这一问题提供了一种可能的答案, 因为它消除了影响 Higgs 质量的平方发散。
超对称的一个更加定量的迹象来自于强、 弱及电磁相互作用耦合常数的测量值。 它们与基本相互作用的大统一理论及超对称所导出的关系式在 1% 的精度内相符。
如果超对称 - 比如通过费米实验室或正在欧洲核子中心建造的新加速器 LHC - 被发现, 人们将从中得到许多有关超对称粒子质量及相互作用的信息。 现在描述超对称世界细节的理论模型比比皆是, 其中即使有一个的方向是正确的, 我们也无从知晓。
发现超对称无疑会给弦论带来极大的促进, 它将表明由弦论以大致相同的方式导出的三种基本结构 - 引力、 规范理论及超对称 - 都是对自然描述的组成部分。 现在还很难说弦论从发现和探索超对称中可能得到的促进会有多大, 因为我们不知道超对称质量谱会是什么样的, 以及从中能得到有关更高能物理学的什么样的线索。
超对称的发现还可能通过多种方式对宇宙学产生影响:
- 某些超对称粒子将是暗物质的可能候选者, 计算表明它们有可能恰好具有与观测相符的质量和丰度。 (不过, 超对称粒子并不是暗物质的唯一候选者, 而且有些超对称模型不具有这种候选者。)
- 如果超对称存在, 那它必须被纳入计算宇宙早期元素合成的理论中去。 事实上, 超对称理论所包含的带重子数的标量粒子很可能会起重要作用 [1]。
- 超对称标量粒子也许与暴胀有关 (这在 L. Randall 的报告中已经讨论过了), 尽管超对称及弦论尚未对此给出清晰的图景。
一个好的超对称破缺模型应该会为解决宇宙学常数极小 (或为零?) 的问题带来曙光, 因为在我们的半现实模型中, 超对称未破缺时宇宙学常数为零。 因此宇宙学常数极小不仅本身是一个很大的谜 - 不为零的观测值使之更为尖锐 - 而且缺乏对它的理解还会妨碍我们改进粒子物理模型。
我们现在所知的超对称破缺模型会导致 quintessence 类型的行为 (它们具有变化的标量场, 没有稳定的真空态), 但其参数和耦合却高度非现实。 总体上讲, 带标量场的 quintessence 看来是有问题的, 因为它们的相干耦合按说应该已经在对等效原理的检验中被检测到了。 有鉴于此, 带赝标量场 [即具有 V(a)=Λ4(1-cos(a/F)) 型相互作用势的轴子型 (axion-like) 场, 其中 Λ 和 F 为常数] 的 quintessence 也许更具吸引力, 因为这类模型没有相干耦合 (或者 - 考虑到宇称并不严格守恒 - 相干耦合被高度抑制)。 目前还只有少数文章讨论以赝标量场为基础的 quintessence 型模型 [2][3]。
五种超弦理论
1984 年, 人们依据弦的普遍性质的差异区分出了五种不同的超弦理论:
- IIA 与 IIB 型理论中的弦是闭合、 有向, 并且是绝缘的。
- I 型理论中的弦是绝缘的, 可以是开弦也可以是闭弦; 开 I 型弦的端点带有电荷。 (这类理论与强相互作用理论有一定的类比性, 其中开弦和闭弦分别对应于介子和胶球; 这种类比性在弦论的发现中起过作用, 并且仍在启发着新的研究方向。)
- 最后, 杂化 SO(32) 和 E8×E8 弦是闭合、 有向, 并且是超导电性的。
超弦理论与以前的物理学还有一个本质的差别。 在量子场论中通常有一些无量纲的可调参数, 比如精细结构常数 e2/4πhc ~ 1/137, 或者电子与 μ 子的质量比 me/mμ ~ 1/200。 这些可调参数大都出现在如 [图一] 所示的相互作用顶点中, 它们在过渡到超弦理论时会消失。 在超弦理论中不存在无量纲的可调参数, 取而代之的是标量场 φi, 它们的期待值确定了 e2/4πhc、 me/mμ 等。
这表明原则上 e2/4πhc、 me/mμ, 以及其它参数也许可以从作为 φi 函数的能量的极小值中计算出。 不过在实际上, 为了做到这一点我们必须理解超对称破缺及宇宙学常数, 因为如果超对称不破缺, V(φ) 将恒等于零。 这是发现超对称从而有机会对超对称破缺进行实验研究有益于超弦理论的又一个原因。
强耦合
要想回答超弦理论中的任何重大问题, 都会遇到一个困难, 那就是我们其实并不真正理解超弦理论到底是什么? 与其它理论 - 比如广义相对论 - 不同的是, 广义相对论是先有整体构思, 而超弦理论在二十世纪七十年代早期的出现通过的却是一系列修修补补的过程, 没有人知道整体图象。 一开始, 人们只能看到云层之上一片小小的山巅。 三十年后的今天, 我们已经拨开云雾见到了一些底层的结构, 但许多东西依然朦朦胧胧。
二十世纪九十年代的一个重大进展是发现如何将诸如 e2/4πhc=eφ 那样的参数外推到大数值上, 前提是超对称破缺可以忽略。 我们以前可以计算 e2/4πhc << 1 的情形, 现在可以对 e2/4πhc >> 1 的情形也有所了解了。
进行这种计算的基本技巧是研究磁单极及其它非微扰激发态。 当 e2/4πhc 很小时, 磁单极远比其它粒子重, 这使得它们不如其它粒子重要。 但是当 e2/4πhc 很大时, 磁单极就会变得很轻, 我们有可能用磁单极来描述理论。
我将以过度简化为代价来对此作一个定性地解释。 按照 Dirac, 磁单极所带的磁荷为 g=2πhc/e。 这表明当 e 很小时 g 远比 e 大, 而当 e 很大时 g 远比 e 小。 假如我们认为电子和磁单极的质量是电磁起源的话, 就可以预期在 e→∞ 时磁单极是轻粒子。
因此在 e2/4πhc→∞ 时我们需要一种以磁单极而非电子为基础的描述, 这种描述不是别的, 恰好就是另一种超弦理论, 或是原先理论的变种。 沿着这种思路人们最终明白了超弦理论其实只有一种, 以前以为不同的五种超弦理论只是一个更加完备的理论的不同极限, 这一理论有时被称为 M 理论。 M 理论是超统一的候选者, 尽管我们对它的了解还很少。
磁单极
磁单极在上述图景的发展中起着重要的作用, 因此假如超弦理论是正确的, 它们就应该存在。 但它们到底在哪里呢? 宇宙暴胀也许已经使磁单极的密度小到了难以观测的程度。 但这在二十多年前磁单极刚刚被提出时就是一种可能性, 如果到今天居然还只是一种可能性, 不免令人汗颜, 因此让我们期望有一定数量的磁单极幸存了下来。
磁单极的质量有多大呢? 以大统一类型的理论为基础的标准描述给出的质量在大统一能标以上, 比如 1017-1020 GeV (上限为带磁荷的 Reissner-Nordstrom 黑洞的质量, 最轻的磁单极不太可能比这更重)。
这么重的磁单极将不受有关磁单极通量的 Parker 上限 (Parker bound) 的影响, 因为这种磁单极所受的星系引力场作用远大于磁场作用。 据我所知, 若不是 MACRO 及其它实验排除了这种磁单极 - 哪怕是其中具有最大可能质量的那种 - 成为星系晕 (galactic halo) 主导成分的可能性, 它们是有可能成为暗物质候选者的。
除了大统一类型的理论外, 我们还应该考虑一些通过大的或弯曲的额外维度, 在低能下统一引力的模型 [5][6]。 假如这样的统一发生在 TeV 能量上, 那么磁单极的预期质量也许会在 10-100 TeV 左右。 这么轻的磁单极会被星系磁场加速到极端相对论性, 因此对它们的实验检测将完全不同于大统一标度上的磁单极 (最近的评估可参阅 [7])。 而且这种磁单极有可能没有被宇宙暴胀所稀释。 不过我们很难对最后这点做细致的描述, 因为目前有关低能统一的想法还只是构想而非具体模型。
有关超弦理论中的磁单极的另一个有趣的特点是在许多模型中 [8], 最小磁荷并不是 Dirac 量子 2πhc/e, 而要比它大 n 倍, 其中 n 是与模型有关的整数。 相对应的, 这些模型中存在电荷为 e/n 的非禁闭有质量粒子。 这些粒子的质量在大统一类型的理论中处在大统一能标上, 而在低能统一模型中则在 TeV 能标上。 宇宙线中电荷大于等于 e/5 并且 β>1/4 的粒子通量已经受到 MACRO 的明显限制 [9]。
具有讽刺意味的是, 尽管人们有时认为在 TeV 能量上统一引力使得该能量上的超对称不再有必要, 但假如超弦理论是正确的话, 它们反而会使 TeV 能量上的超对称变得不可避免。 为了说明这一点, 让我们来做一个简单的理想实验 (其实在前面考虑磁单极时就可以做)。 假如加速器实验果真发现了 TeV 能量上与量子引力的统一以及高维有效 Planck 标度为 TeV 量级, 那么, 如果量子引力要求在 Planck 能标上具有超对称 (超弦理论看来正是如此), 则我们就应该预期在 TeV 甚至更低的能量上发现超对称!
最近 Giddings 和 DeWolfe 的一篇文章对上面最后一点做了精彩的论述 [10] (也可以参阅 [11] 中的相关讨论)。 他们考虑了一种带有弯曲额外维度的情形, 对大多数状态来说理论的十维 Planck 质量处在或高于普通的大统一能标, 而且超对称在该能量上破缺。 但是由于度规的弯曲, 部分粒子态可以向下延伸到 TeV 或更低的能量。 在这一模型中, TeV 能标上的粒子包括一些引力子的激发态, 通过在 TeV 上包括这一低能粒子区 (该区域应该包含了我们熟悉的普通粒子) 的实验, 人们可以观测到基本粒子与引力的统一。 毫无疑问, 正如我们的简单分析所预示的, Giddings 和 DeWolfe 发现尽管大统一标度上的粒子具有大统一标度上的超对称质量分裂, TeV 能量上的粒子却具有 TeV 能量上的超对称质量分裂。 因此, 能够发现基本粒子与引力统一的实验也将能够发现超对称。
因此简而言之, 低能磁单极与低能超对称破缺应该是低能引力统一模型的普遍结果。
除此之外还有哪些地方可以看到超弦理论的效应? 如果我们可以通过 (由标量场真空期待值的变化所导致的) 自然常数的变化, 或等效原理的偏离, 或 Newton 引力定律在小尺度上的偏离, 检测到超弦理论中为数众多的标量场, 那将是不错的结果。 不过就自然常数的变化而言, 我个人对此比较悲观, 因为我觉得足以导致可检测的自然常数变化的标量场变化应当已经在对等效原理的检验中被发现了。 但我还是抱着一线希望。
在其它种种想象得到的可能性中, 我只提其中一种, 那就是 “弦论” 这一名称本身就暗示着如果理论是正确的, 弦有可能存在于天空中 (当然, 宇宙弦 - 尤其是重的宇宙弦 - 也可能已被宇宙暴胀极大地稀释了)。 人们可以想象弦在天空中的伸展, 还有其它带有大统一尺度张力的客体, 它们也许会出现在宇宙微波背景图象中。 不仅如此, 其它较轻的, 也许一直向下延伸到 TeV 能标上 (对应的张力约为 10-4 gm/cm) 的客体也同样有可能被观测到。 这些较轻的客体也许可以从, 比方说, 某种我们还不知道的规范群的额外 U(1) 因子的破缺中被产生出来。 它们将无法通过引力效应被观测到, 但如果它们在银河系 (或太阳系?[12]) 中大量存在的话, 也许可以通过其它方法检测到。 在那种情形下, 如果它们是超导电性的 (这对于从额外 U(1) 破缺中产生出的弦来说并不罕见 [13]), 也许可以通过它们对磁场的扰动以及它们与磁场相互作用时产生出的反物质云而被检测到。
参考文献
- I. Affleck and M. Dine, "A New Mechanism For Baryogenesis," Nucl. Phys. B256 (1985) 557; M. Dine, L. Randall, and S. Thomas, "Baryogenesis From Flat Directions Of The Supersymmetric Standard Model," Nucl. Phys. B458 (1995) 291, hep-ph/9507453.
- S. Carroll, "Quintessence And The Rest Of The World," Phys.Rev.Lett. 81 (1998) 3067 astro-ph/9806099.
- K. Choi, "Quintessence, Flat Potential, And String/$M$ Theory Axion," hep-ph/9912218.
- M. Ambrosio et. al., "Final Results Of Magnetic Monopole Searches With the MACRO Experiment," Eur. Phys. J. C25 (2002) 511, hep-ex/0207020.
- N. Arkani-Hamed, S. Dimopoulos, and G. R. Dvali, "The Hierarchy Problem And New Dimensions At A Millimeter," Phys. Lett. B429 (1998) 263, hep-ph/9803315.
- L. Randall and R. Sundrum, "A Large Mass Hierarchy From A Small Extra Dimension," Phys. Rev. Lett. 83 (1999) 3370, hep-ph/9905221.
- S. D. Wick, T. W. Kephart, T. J. Weiler, and P. L. Biermann, "Signatures For A Cosmic Flux Of Magnetic Monopoles," astro-ph/0001233.
- X.-G. Wen and E. Witten, "Electric And Magnetic Charges In Superstring Models," Nucl. Phys. B261 (1985) 651.
- M. Ambrosio et. al., "A Search For Lightly Ionizing Particles With The MACRO Detector," hep-ex/0002029.
- S. Giddings and O. DeWolfe, "Scales And Hierarchies In Warped Compactifications And Brane Worlds," hep-th/0208123.
- M. A. Luty, "Weak Scale Supersymmetry Without Weak Scale Supergravity," hep-th/0205077.
- A. Vilenkin, "String-Dominated Universe," Phys. Rev. Lett. 53 (1984) 1016.
- E. Witten, "Superconducting Strings," Nucl. Phys. B249 (1985) 557.
http://www.changhai.org/
【转载】:和研究Vision & Learning有关的数学
by:格致人生
今天在林达华的共享空间上看到他总结和感悟的在研究machine
Learning时的心得,现转载如下:
Calculus (微积分),只是数学分析体系的基础。其基础性作用不言而喻。Learning研究的大部分问题是在连续的度量空间进行的,无论代数还是统计,在研究优化问题的时候,对一个映射的微分或者梯度的分析总是不可避免。而在统计学中,Marginalization和积分更是密不可分——不过,以解析形式把积分导出来的情况则不多见。
Linear Algebra (线性代数) 和 Statistics (统计学) 是最重要和不可缺少的。这代表了Machine Learning中最主流的两大类方法的基础。一种是以研究函数和变换为重点的代数方法,比如Dimension reduction,feature extraction,Kernel等,一种是以研究统计模型和样本分布为重点的统计方法,比如Graphical model, Information theoretical models等。它们侧重虽有不同,但是常常是共同使用的,对于代数方法,往往需要统计上的解释,对于统计模型,其具体计算则需要代数的帮助。
以代数和统计为出发点,继续往深处走,我们会发现需要更多的数学。
__________________________________________________________________________________________________________________________
Measure Theory (测度理论),这是和实分析关系非常密切的学科。但是测度理论并不限于此。从某种意义上说,Real Analysis可以从Lebesgue Measure(勒贝格测度)推演,不过其实还有很多别的测度体系——概率本身就是一种测度。测度理论对于Learning的意义是根本的,现代统计学整个就是建立在测度理论的基础之上——虽然初级的概率论教科书一般不这样引入。在看一些统计方面的文章的时候,你可能会发现,它们会把统计的公式改用测度来表达,这样做有两个好处:所有的推导和结论不用分别给连续分布和离散分布各自写一遍了,这两种东西都可以用同一的测度形式表达:连续分布的积分基于 Lebesgue测度,离散分布的求和基于计数测度,而且还能推广到那种既不连续又不离散的分布中去(这种东西不是数学家的游戏,而是已经在实用的东西,在Dirchlet Process或者Pitman-Yor Process里面会经常看到)。而且,即使是连续积分,如果不是在欧氏空间进行,而是在更一般的拓扑空间(比如微分流形或者变换群),那么传统的黎曼积分(就是大学一年级在微积分课学的那种)就不work了,你可能需要它们的一些推广,比如Haar Measure或者Lebesgue-Stieltjes积分。
Functional Analysis (泛函分析), 通俗地,可以理解为微积分从有限维空间到无限维空间的拓展——当然了,它实际上远不止于此。在这个地方,函数以及其所作用的对象之间存在的对偶关系扮演了非常重要的角色。Learning发展至今,也在向无限维延伸——从研究有限维向量的问题到以无限维的函数为研究对象。Kernel Learning 和 Gaussian Process 是其中典型的例子——其中的核心概念都是Kernel。很多做Learning的人把Kernel简单理解为Kernel trick的运用,这就把kernel的意义严重弱化了。在泛函里面,Kernel (Inner Product) 是建立整个博大的代数体系的根本,从metric, transform到spectrum都根源于此。 Topology(拓扑学),这是学术中很基础的学科。它一般不直接提供方法,但是它的很多概念和定理是其它数学分支的基石。看很多别的数学的时候,你会经常接触这样一些概念:Open set / Closed set,set basis,Hausdauf, continuous function,metric space, Cauchy sequence, neighborhood, compactness, connectivity。很多这些也许在大学一年级就学习过一些,当时是基于极限的概念获得的。如果,看过拓扑学之后,对这些概念的认识会有根本性的拓展。比如,连续函数,当时是由epison法定义的,就是无论取多小的正数epsilon,都存在xxx,使得xxx。这是需要一种metric去度量距离的,在general topology里面,对于连续函数的定义连坐标和距离都不需要——如果一个映射使得开集的原像是开集,它就是连续的——至于开集是基于集合论定义的,不是通常的开区间的意思。这只是最简单的例子。当然,我们研究learning也许不需要深究这些数学概念背后的公理体系,但是,打破原来定义的概念的局限在很多问题上是必须的——尤其是当你研究的东西它不是在欧氏空间里面的时候——正交矩阵,变换群,流形,概率分布的空间,都属于此。
Differential Manifold (微分流形), 通俗地说它研究的是平滑的曲面。一个直接的印象是它是不是可以用来fitting一个surface什么的——当然这算是一种应用,但是这是非常初步的。本质上说,微分流形研究的是平滑的拓扑结构。一个空间构成微分流形的基本要素是局部平滑:从拓扑学来理解,就是它的任意局部都同胚于欧氏空间,从解析的角度来看,就是相容的局部坐标系统。当然,在全局上,它不要求和欧氏空间同胚。它除了可以用于刻画集合上的平滑曲面外,更重要的意义在于,它可以用于研究很多重要的集合。一个n-维线性空间的全部k-维子空间(k < n)就构成了一个微分流形——著名的Grassman Manifold。所有的标准正交阵也构成一个流形。一个变换群作用于一个空间形成的轨迹(Orbit) 也是通常会形成流形。在流形上,各种的分析方法,比如映射,微分,积分都被移植过来了。前一两年在Learning里面火了好长时间的Manifold Learning其实只是研究了这个分支的其中一个概念的应用: embedding。其实,它还有很多可以发掘的空间。
Lie Group Theory (李群论),一般意义的群论在Learning中被运用的不是很多,群论在Learning中用得较多的是它的一个重要方向Lie group。定义在平滑流行上的群,并且其群运算是平滑的话,那么这就叫李群。因为Learning和编码不同,更多关注的是连续空间,因为Lie group在各种群中对于Learning特别重要。各种子空间,线性变换,非奇异矩阵都基于通常意义的矩阵乘法构成李群。在李群中的映射,变换,度量,划分等等都对于Learning中代数方法的研究有重要指导意义。
__________________________________________________________________________________________________________________________
Partial Differential Equation (偏微分方程),这主要用于描述动态过程,或者仿动态过程。这个学科在Vision中用得比Learning多,主要用于描述连续场的运动或者扩散过程。比如Level set, Optical flow都是这方面的典型例子。
Graph Theory(图论),图,由于它在表述各种关系的强大能力以及优雅的理论,高效的算法,越来越受到Learning领域的欢迎。经典图论,在Learning中的一个最重要应用就是graphical models了,它被成功运用于分析统计网络的结构和规划统计推断的流程。Graphical model所取得的成功,图论可谓功不可没。在Vision里面,maxflow (graphcut)算法在图像分割,Stereo还有各种能量优化中也广受应用。另外一个重要的图论分支就是Algebraic graph theory (代数图论),主要运用于图的谱分析,著名的应用包括Normalized Cut和Spectral Clustering。近年来在semi-supervised learning中受到特别关注。
Calculus (微积分),只是数学分析体系的基础。其基础性作用不言而喻。Learning研究的大部分问题是在连续的度量空间进行的,无论代数还是统计,在研究优化问题的时候,对一个映射的微分或者梯度的分析总是不可避免。而在统计学中,Marginalization和积分更是密不可分——不过,以解析形式把积分导出来的情况则不多见。
Linear Algebra (线性代数) 和 Statistics (统计学) 是最重要和不可缺少的。这代表了Machine Learning中最主流的两大类方法的基础。一种是以研究函数和变换为重点的代数方法,比如Dimension reduction,feature extraction,Kernel等,一种是以研究统计模型和样本分布为重点的统计方法,比如Graphical model, Information theoretical models等。它们侧重虽有不同,但是常常是共同使用的,对于代数方法,往往需要统计上的解释,对于统计模型,其具体计算则需要代数的帮助。
以代数和统计为出发点,继续往深处走,我们会发现需要更多的数学。
__________________________________________________________________________________________________________________________
Measure Theory (测度理论),这是和实分析关系非常密切的学科。但是测度理论并不限于此。从某种意义上说,Real Analysis可以从Lebesgue Measure(勒贝格测度)推演,不过其实还有很多别的测度体系——概率本身就是一种测度。测度理论对于Learning的意义是根本的,现代统计学整个就是建立在测度理论的基础之上——虽然初级的概率论教科书一般不这样引入。在看一些统计方面的文章的时候,你可能会发现,它们会把统计的公式改用测度来表达,这样做有两个好处:所有的推导和结论不用分别给连续分布和离散分布各自写一遍了,这两种东西都可以用同一的测度形式表达:连续分布的积分基于 Lebesgue测度,离散分布的求和基于计数测度,而且还能推广到那种既不连续又不离散的分布中去(这种东西不是数学家的游戏,而是已经在实用的东西,在Dirchlet Process或者Pitman-Yor Process里面会经常看到)。而且,即使是连续积分,如果不是在欧氏空间进行,而是在更一般的拓扑空间(比如微分流形或者变换群),那么传统的黎曼积分(就是大学一年级在微积分课学的那种)就不work了,你可能需要它们的一些推广,比如Haar Measure或者Lebesgue-Stieltjes积分。
Functional Analysis (泛函分析), 通俗地,可以理解为微积分从有限维空间到无限维空间的拓展——当然了,它实际上远不止于此。在这个地方,函数以及其所作用的对象之间存在的对偶关系扮演了非常重要的角色。Learning发展至今,也在向无限维延伸——从研究有限维向量的问题到以无限维的函数为研究对象。Kernel Learning 和 Gaussian Process 是其中典型的例子——其中的核心概念都是Kernel。很多做Learning的人把Kernel简单理解为Kernel trick的运用,这就把kernel的意义严重弱化了。在泛函里面,Kernel (Inner Product) 是建立整个博大的代数体系的根本,从metric, transform到spectrum都根源于此。 Topology(拓扑学),这是学术中很基础的学科。它一般不直接提供方法,但是它的很多概念和定理是其它数学分支的基石。看很多别的数学的时候,你会经常接触这样一些概念:Open set / Closed set,set basis,Hausdauf, continuous function,metric space, Cauchy sequence, neighborhood, compactness, connectivity。很多这些也许在大学一年级就学习过一些,当时是基于极限的概念获得的。如果,看过拓扑学之后,对这些概念的认识会有根本性的拓展。比如,连续函数,当时是由epison法定义的,就是无论取多小的正数epsilon,都存在xxx,使得xxx。这是需要一种metric去度量距离的,在general topology里面,对于连续函数的定义连坐标和距离都不需要——如果一个映射使得开集的原像是开集,它就是连续的——至于开集是基于集合论定义的,不是通常的开区间的意思。这只是最简单的例子。当然,我们研究learning也许不需要深究这些数学概念背后的公理体系,但是,打破原来定义的概念的局限在很多问题上是必须的——尤其是当你研究的东西它不是在欧氏空间里面的时候——正交矩阵,变换群,流形,概率分布的空间,都属于此。
Differential Manifold (微分流形), 通俗地说它研究的是平滑的曲面。一个直接的印象是它是不是可以用来fitting一个surface什么的——当然这算是一种应用,但是这是非常初步的。本质上说,微分流形研究的是平滑的拓扑结构。一个空间构成微分流形的基本要素是局部平滑:从拓扑学来理解,就是它的任意局部都同胚于欧氏空间,从解析的角度来看,就是相容的局部坐标系统。当然,在全局上,它不要求和欧氏空间同胚。它除了可以用于刻画集合上的平滑曲面外,更重要的意义在于,它可以用于研究很多重要的集合。一个n-维线性空间的全部k-维子空间(k < n)就构成了一个微分流形——著名的Grassman Manifold。所有的标准正交阵也构成一个流形。一个变换群作用于一个空间形成的轨迹(Orbit) 也是通常会形成流形。在流形上,各种的分析方法,比如映射,微分,积分都被移植过来了。前一两年在Learning里面火了好长时间的Manifold Learning其实只是研究了这个分支的其中一个概念的应用: embedding。其实,它还有很多可以发掘的空间。
Lie Group Theory (李群论),一般意义的群论在Learning中被运用的不是很多,群论在Learning中用得较多的是它的一个重要方向Lie group。定义在平滑流行上的群,并且其群运算是平滑的话,那么这就叫李群。因为Learning和编码不同,更多关注的是连续空间,因为Lie group在各种群中对于Learning特别重要。各种子空间,线性变换,非奇异矩阵都基于通常意义的矩阵乘法构成李群。在李群中的映射,变换,度量,划分等等都对于Learning中代数方法的研究有重要指导意义。
__________________________________________________________________________________________________________________________
Partial Differential Equation (偏微分方程),这主要用于描述动态过程,或者仿动态过程。这个学科在Vision中用得比Learning多,主要用于描述连续场的运动或者扩散过程。比如Level set, Optical flow都是这方面的典型例子。
Graph Theory(图论),图,由于它在表述各种关系的强大能力以及优雅的理论,高效的算法,越来越受到Learning领域的欢迎。经典图论,在Learning中的一个最重要应用就是graphical models了,它被成功运用于分析统计网络的结构和规划统计推断的流程。Graphical model所取得的成功,图论可谓功不可没。在Vision里面,maxflow (graphcut)算法在图像分割,Stereo还有各种能量优化中也广受应用。另外一个重要的图论分支就是Algebraic graph theory (代数图论),主要运用于图的谱分析,著名的应用包括Normalized Cut和Spectral Clustering。近年来在semi-supervised learning中受到特别关注。
陈省身自述
by:格致人生
---------------------------------------A
早年在中国所受的教育
我于1923年1月进天津扶轮中学。那是一所四年制的高级中学,我获准插班入一年级就读第二学期。该校的数学课程有:
(1)第一年,算术,使用中文课本;
(2)第二年,代数,使用 Hall 与 Knight 的课本;
(3)第三年,几何,使用 Wentworth 与 Smith 的课本;
(4)第四年,三角学和高级代数,分别使用 Wentworth-Smith 及 Hall-Knight 的课本。
我的老师都很有能力,又极富献身精神,我做了大量习题。到第四年,我已能做许多Ha ll-Knight 的书中引用的剑桥大学荣誉学位考试的题目。
我于1923年1月进天津扶轮中学。那是一所四年制的高级中学,我获准插班入一年级就读第二学期。该校的数学课程有:
(1)第一年,算术,使用中文课本;
(2)第二年,代数,使用 Hall 与 Knight 的课本;
(3)第三年,几何,使用 Wentworth 与 Smith 的课本;
(4)第四年,三角学和高级代数,分别使用 Wentworth-Smith 及 Hall-Knight 的课本。
我的老师都很有能力,又极富献身精神,我做了大量习题。到第四年,我已能做许多Ha ll-Knight 的书中引用的剑桥大学荣誉学位考试的题目。
1926年我从扶轮毕业;同年我进南开大学,实际上是跳了两级,因此我从未上过解析几何课。更糟的是,我必须参加南开大学的入学考试,其数学试题中解析几何占很重的份量。考试前的三个星期,我自学了 Young 与 Morgen 的《数学分析》(Mathematical analysis)如果记得不错的话,我的考卷位列第二。不过在很长的一段时间内,「圆锥曲线的焦点」这一概念令我大伤脑筋,直到几年后学了射影几何学我才茅塞顿开。
进南开大学后,我很快就发现自己做实验笨手笨脚,于是数学便成为我唯一的选择。我有得姜立夫教授为师-他1918年获哈佛大学哲学博士学位,导师是 J.
Coolidge,论文题目是关于非欧几里得空间中线球接触变换的。因此,我在大学第四年,花了许多功夫学几何,所读的书中有 Coolidge
的《非欧几何学》(Noneuclidean Geometry) 与《圆和球的几何学》(Geometry of the circle and
sphere),Solmon 的《圆锥曲线》(conic sections) 与《立体解析几何》(Analytic Geometry of Three
Dimmensions),以及Castelnuov
o 的《解析几何与射影几何》(Analytic and Projective Geometry) 等。尤其使我着迷的是 Otto Staude 的二卷本着作《线构造》(Fadenkonstruktionen)。二次超曲面的几何是数学中优美的篇章。我很高兴看到 J. Moser 1979年在可积哈密顿系统和谱理论的研究中继续这方面的工作。(参见3)甚至在今日,研究 Salmon 的东西可能仍是有价值的,至少在我看来是有趣的。
1930年我从南开毕业,去北平清华大学从孙鎕 注1 教授工作。孙先生在当时是中国发表数学研究论文的唯一的数学家。孙的研究领域是射影微分几何,他曾是芝加哥大学E.P.Lane 的博士生。这个主题由 E.J. Wilczynsky 于1901年创立,是那时已经支配几何学近一世纪的射影几何的一个自然产物。我熟悉了这方面的文献,并写了几篇论文,其中包括我的有关射影线几何的硕士论文。继 Plücker 与 Klein 之后,线几何一直是几何学家们喜爱的主题。事实上,Klein 的学位论文就是关于二次线体的,即 Plücker 坐标下的二次方程所确定的线轨 (line loci)。二次线体具有许多背景中也有许多线几何的内容。
我的论文研究线汇,即线的二维子流形以及它们的通过二次线体的密切 (osculation)。在我的研究生学业接近结束时,即大约1934年左右,我开始认识到整体微分几何(当时称为大范围微分几何)的重要性。我的主要灵感来自 W. Blaschke 的关于微分几何的那些著作。
很清楚,代数拓扑是整个领域的基础。而代数拓扑本身当时还处于发展阶段。 Veblen 于1922年发表的 analysis situs 注2 引进了「同调不变量」(homology characters) 即根据关联矩阵得出的 Betti 数和挠系数。Lefschetz 的《拓扑学》于1930年出版,但该书对初学者进入这个领域并无裨益。我曾听过manuel Sperner 的讲课(1933~1934年)。当时Sperner 正在北京大学访问,他的课包含有对 Erhard Schmidt关于约当曲线定理的证明的严密而详细的论述。我也听过江泽涵讲授的以 Lefschetz 的书为蓝本的「位置分析」课,江是 Marston Morse 过去的学生,曾担任 Lefschetz 的助手。而我当时的感觉是我只是刚刚站在代数拓扑这座伟大殿堂的门口。到1934年 Seifert-Threlfall 的书和1935年Alexandroff-Hopf 的书问世,情况才有了巨大的变化。
1932年春季,Blaschke 访问了北平,作了关于「微分几何中的拓扑问题」的系列演讲。这是真正的局部微分几何。他采用全体微分同胚构成的伪群取代经典微分几何中的李群,并研究了局部不变量。我能跟上 Blaschke 的演讲并去阅读发表在汉堡大学数学讨论会论文集 (Hamburger Abhandlungen) 及其它杂志上的包含在这同一个总标题下的许多论文。这个主题现在称为网几何 (web geometry)。由于有此接触,之前又已掌握 Blaschke 的微分几何书中的知识,所以当1934年获得一笔奖学金时,我决定去汉堡留学。
----------------------------------B
欧洲的留学生活
1934~1936 年我在汉堡,1936年获理学博士学位;并曾在巴黎随 Elie Cartan 从事一年博士后研究,去汉堡的选择实属幸运之举。汉堡大学有一个很强的数学系,Blaschke、Artn 以及 Hecke 是那里的教,较资浅的成员包括 E. K?hler、H. Petersson 和H. Zassenhaus。
1934~1935年间我的主要精力用于参加 K?hler 的讨论班。讨论班以 K?hler刚出版不久的著名小册子微分方程组理论导引》(Einführung in die Theorie Systeme von Differentialgleichangen) 为基础。主要成果就是后来所称的 Cartan-K?;hler 定理。所有的人,包括 Blaschke、Artin 与 Hecke,都出席了首次讨论会,每人还得到一本上述的小册子。但参加者减少得很快,我是坚持到底的极少数人之一。我把这一理论用于 R2r 中 r 维子流形的 3-网。Blaschke 和 K?hler 都认为这个结果与我先前关于最大秩的结果已足
够写成一篇学位论文了。到1935年底我的学位论文已准备就绪。
Blaschke 及其学派主要关心积分几何,Blaschke 开过积分几何的课程。这一主题最漂亮的结果是由L.A. Santalò 发现的。一个结果是用正项的无穷和表示平面凸曲线的等周亏量,其中每个正项均具几何意义。Santalò 的工作使他成为积分几何方面的世界级领袖。他原籍西班牙,后来移民到阿根廷。
我的另一位学友是代数几何学家周炜良,他为了跟 Hermann Weyl做研究从芝加哥来到哥廷根。但是哥廷根乃至整个德国政局的变化使这一愿望成为泡影,他又转往莱比锡随Van der Waerden 工作。由于某种原因,他住在汉堡,有时来参加讨论班。周炜良当时正在发展他的「配型」(zugeordnete Formen),即后来所称「周氏坐标」。周是一位有创见的数学家。他对代数几何作出了重要贡献,包括他的紧子簇定理和相交理论。周出身于中国一个高层官宦家族,它很早就认识到西化的必要,因此这个家族出了不少杰出人物。周习惯夜间工作。当他来访时我就得牺牲一些睡眠,但却学得一些数学。无论如何,只要可能,我就去听 Artin 的讲课。二年间他开过的课包括复变函数论、代数拓扑、相对论和丢番图逼近等。我还听过 Hecke 主要按他的书讲的代数数论课。我在汉堡的学术生涯是很理想的,但是政局不允许这种生活继续下去。
1936~1937年我可从事一年博士后研究。当我征求 Blaschke 的意见时,他建议我或继续留汉堡跟 Artin 研究数论,或去巴黎跟随 Elie Cartan。这两个方案都有吸引力,我最后选择了后者。
这一抉择非常理想。那年 Cartan 开了一门外微分系统的课程;讲义后来以书的形式出版了。那些后来成为 Bourbaki 的「年轻的」法国数学家开始活跃起来。他们组织了一个「Julia 讨论班」,每二周聚一次,致力于对每年选定的一个专题进行研究。1936~1937年的专题是「E. Cartan 的工作」。
Cartan 是位极好的导师。他提出的「小」问题,有些成为我论文的主题。大概由于我对他所提问题作的解答,他允许我大约每二周去他家一次。见面后的第二天我通常会收到他的信,信中往往说:「你走后我又考虑了他的问题。……这问题似乎很有趣……」这一年过得有趣而令人难忘。
我还听过 Montel 有关多复变的讲课,参加过 Hadamard 在法兰西学院举办的讨论班。在每次讨论班结束时 Hadamard 总会作总结,它通常比讨论班上的演讲本身更清楚更丰富。
在获悉中日战争爆发的消息后,我怀着沉重的心情于1937年7月10日告别巴黎返回中国。
-----------------------------------------C
数学上与世隔绝
1937年夏我离欧返华时,本打算去北平就任清华大学教授之职,由于中日战争之故,十年后才达到此目的。当时清华大学先搬到长沙,1938年又迁至昆明,在那儿一直滞留到1945年夏战争结束。
昆明是座美丽的城市。虽然处于战事中的国家物资匮乏、局势动荡,但在生活的其它方面倒是愉快的。清华大学与北京大学、南开大学联合,组成了西南联合大学,昆明立刻成为战时中国知识界的中心。我的数学同仁包括华罗庚和许宝騄。我开了代数拓扑、李群、球几何及外微分系统等方面的课程和讨论班,吸引了一批学生。主要的不便是此地与外界的联系被切断了:有段时间连「缅甸信道」也关闭了,与外界的联系只有靠空运。我有个私人小书库。起初,我做了以前想做而没时间做的事:读了些书,思考些问题,还觉得有趣。但挫折很快就降临了,而且必须克服。我将此情信告 E. Cartan,他寄给我许多他的抽印本,包括一些过去的论文。我花了大量时间研读这些论文,考虑其内涵及应用。这确实使我受益匪浅。在30年代,人们已开始认识到 Cartan 的工作的重要性,如 Weyl、Blaschke 和 K?hler,但几乎没有人去读 Cartan 旧时的论文(有关李代数的论文除外)。我很幸运能因环境之故把这些论文都遍读无遗。
驻华盛顿的中国大使胡适博士空邮来一本 Hurewicz-Wallman 写的有关《维数论》的书。现今习惯于静电复印的人也许很难想象我把除最后一章外的整本书抄了一遍。在最后一章中,作者是在没有正合序列概念的情况下处理正合序列的问题,我觉得很难理解。其实当时读论文作笔记是很普通的。复印大量资料并不能说明自己取得了多少进步。
我开始有了一些学生,其中有王宪钟和严志达。王后来对拓扑学作出了许多贡献,尽管他最出名的成果是王序列。严最早给出所有例外李群的 Betti 数的正确值。
回首往事,我并不认为自已对作为整体的数学有完善的见地。我清楚自己的某些不足并渴望得到充实。我的数学实力在于我能算。至今我不在乎繁复的计算,直到数年前我做这样的计算还很少出现差错。这方面的训练现在不大流行,也得不到鼓励,但在处理许多问题时它仍有很大的好处。
Gauss-Bonnet 公式曾使我着迷,我知道它的最概念化的证明是通过结构方程来表示联络形式的外微。当1943年我去普林斯顿时,它已为为我在数学工作中最得意的一篇论文开了题。
o 的《解析几何与射影几何》(Analytic and Projective Geometry) 等。尤其使我着迷的是 Otto Staude 的二卷本着作《线构造》(Fadenkonstruktionen)。二次超曲面的几何是数学中优美的篇章。我很高兴看到 J. Moser 1979年在可积哈密顿系统和谱理论的研究中继续这方面的工作。(参见3)甚至在今日,研究 Salmon 的东西可能仍是有价值的,至少在我看来是有趣的。
1930年我从南开毕业,去北平清华大学从孙鎕 注1 教授工作。孙先生在当时是中国发表数学研究论文的唯一的数学家。孙的研究领域是射影微分几何,他曾是芝加哥大学E.P.Lane 的博士生。这个主题由 E.J. Wilczynsky 于1901年创立,是那时已经支配几何学近一世纪的射影几何的一个自然产物。我熟悉了这方面的文献,并写了几篇论文,其中包括我的有关射影线几何的硕士论文。继 Plücker 与 Klein 之后,线几何一直是几何学家们喜爱的主题。事实上,Klein 的学位论文就是关于二次线体的,即 Plücker 坐标下的二次方程所确定的线轨 (line loci)。二次线体具有许多背景中也有许多线几何的内容。
我的论文研究线汇,即线的二维子流形以及它们的通过二次线体的密切 (osculation)。在我的研究生学业接近结束时,即大约1934年左右,我开始认识到整体微分几何(当时称为大范围微分几何)的重要性。我的主要灵感来自 W. Blaschke 的关于微分几何的那些著作。
很清楚,代数拓扑是整个领域的基础。而代数拓扑本身当时还处于发展阶段。 Veblen 于1922年发表的 analysis situs 注2 引进了「同调不变量」(homology characters) 即根据关联矩阵得出的 Betti 数和挠系数。Lefschetz 的《拓扑学》于1930年出版,但该书对初学者进入这个领域并无裨益。我曾听过manuel Sperner 的讲课(1933~1934年)。当时Sperner 正在北京大学访问,他的课包含有对 Erhard Schmidt关于约当曲线定理的证明的严密而详细的论述。我也听过江泽涵讲授的以 Lefschetz 的书为蓝本的「位置分析」课,江是 Marston Morse 过去的学生,曾担任 Lefschetz 的助手。而我当时的感觉是我只是刚刚站在代数拓扑这座伟大殿堂的门口。到1934年 Seifert-Threlfall 的书和1935年Alexandroff-Hopf 的书问世,情况才有了巨大的变化。
1932年春季,Blaschke 访问了北平,作了关于「微分几何中的拓扑问题」的系列演讲。这是真正的局部微分几何。他采用全体微分同胚构成的伪群取代经典微分几何中的李群,并研究了局部不变量。我能跟上 Blaschke 的演讲并去阅读发表在汉堡大学数学讨论会论文集 (Hamburger Abhandlungen) 及其它杂志上的包含在这同一个总标题下的许多论文。这个主题现在称为网几何 (web geometry)。由于有此接触,之前又已掌握 Blaschke 的微分几何书中的知识,所以当1934年获得一笔奖学金时,我决定去汉堡留学。
----------------------------------B
欧洲的留学生活
1934~1936 年我在汉堡,1936年获理学博士学位;并曾在巴黎随 Elie Cartan 从事一年博士后研究,去汉堡的选择实属幸运之举。汉堡大学有一个很强的数学系,Blaschke、Artn 以及 Hecke 是那里的教,较资浅的成员包括 E. K?hler、H. Petersson 和H. Zassenhaus。
1934~1935年间我的主要精力用于参加 K?hler 的讨论班。讨论班以 K?hler刚出版不久的著名小册子微分方程组理论导引》(Einführung in die Theorie Systeme von Differentialgleichangen) 为基础。主要成果就是后来所称的 Cartan-K?;hler 定理。所有的人,包括 Blaschke、Artin 与 Hecke,都出席了首次讨论会,每人还得到一本上述的小册子。但参加者减少得很快,我是坚持到底的极少数人之一。我把这一理论用于 R2r 中 r 维子流形的 3-网。Blaschke 和 K?hler 都认为这个结果与我先前关于最大秩的结果已足
够写成一篇学位论文了。到1935年底我的学位论文已准备就绪。
Blaschke 及其学派主要关心积分几何,Blaschke 开过积分几何的课程。这一主题最漂亮的结果是由L.A. Santalò 发现的。一个结果是用正项的无穷和表示平面凸曲线的等周亏量,其中每个正项均具几何意义。Santalò 的工作使他成为积分几何方面的世界级领袖。他原籍西班牙,后来移民到阿根廷。
我的另一位学友是代数几何学家周炜良,他为了跟 Hermann Weyl做研究从芝加哥来到哥廷根。但是哥廷根乃至整个德国政局的变化使这一愿望成为泡影,他又转往莱比锡随Van der Waerden 工作。由于某种原因,他住在汉堡,有时来参加讨论班。周炜良当时正在发展他的「配型」(zugeordnete Formen),即后来所称「周氏坐标」。周是一位有创见的数学家。他对代数几何作出了重要贡献,包括他的紧子簇定理和相交理论。周出身于中国一个高层官宦家族,它很早就认识到西化的必要,因此这个家族出了不少杰出人物。周习惯夜间工作。当他来访时我就得牺牲一些睡眠,但却学得一些数学。无论如何,只要可能,我就去听 Artin 的讲课。二年间他开过的课包括复变函数论、代数拓扑、相对论和丢番图逼近等。我还听过 Hecke 主要按他的书讲的代数数论课。我在汉堡的学术生涯是很理想的,但是政局不允许这种生活继续下去。
1936~1937年我可从事一年博士后研究。当我征求 Blaschke 的意见时,他建议我或继续留汉堡跟 Artin 研究数论,或去巴黎跟随 Elie Cartan。这两个方案都有吸引力,我最后选择了后者。
这一抉择非常理想。那年 Cartan 开了一门外微分系统的课程;讲义后来以书的形式出版了。那些后来成为 Bourbaki 的「年轻的」法国数学家开始活跃起来。他们组织了一个「Julia 讨论班」,每二周聚一次,致力于对每年选定的一个专题进行研究。1936~1937年的专题是「E. Cartan 的工作」。
Cartan 是位极好的导师。他提出的「小」问题,有些成为我论文的主题。大概由于我对他所提问题作的解答,他允许我大约每二周去他家一次。见面后的第二天我通常会收到他的信,信中往往说:「你走后我又考虑了他的问题。……这问题似乎很有趣……」这一年过得有趣而令人难忘。
我还听过 Montel 有关多复变的讲课,参加过 Hadamard 在法兰西学院举办的讨论班。在每次讨论班结束时 Hadamard 总会作总结,它通常比讨论班上的演讲本身更清楚更丰富。
在获悉中日战争爆发的消息后,我怀着沉重的心情于1937年7月10日告别巴黎返回中国。
-----------------------------------------C
数学上与世隔绝
1937年夏我离欧返华时,本打算去北平就任清华大学教授之职,由于中日战争之故,十年后才达到此目的。当时清华大学先搬到长沙,1938年又迁至昆明,在那儿一直滞留到1945年夏战争结束。
昆明是座美丽的城市。虽然处于战事中的国家物资匮乏、局势动荡,但在生活的其它方面倒是愉快的。清华大学与北京大学、南开大学联合,组成了西南联合大学,昆明立刻成为战时中国知识界的中心。我的数学同仁包括华罗庚和许宝騄。我开了代数拓扑、李群、球几何及外微分系统等方面的课程和讨论班,吸引了一批学生。主要的不便是此地与外界的联系被切断了:有段时间连「缅甸信道」也关闭了,与外界的联系只有靠空运。我有个私人小书库。起初,我做了以前想做而没时间做的事:读了些书,思考些问题,还觉得有趣。但挫折很快就降临了,而且必须克服。我将此情信告 E. Cartan,他寄给我许多他的抽印本,包括一些过去的论文。我花了大量时间研读这些论文,考虑其内涵及应用。这确实使我受益匪浅。在30年代,人们已开始认识到 Cartan 的工作的重要性,如 Weyl、Blaschke 和 K?hler,但几乎没有人去读 Cartan 旧时的论文(有关李代数的论文除外)。我很幸运能因环境之故把这些论文都遍读无遗。
驻华盛顿的中国大使胡适博士空邮来一本 Hurewicz-Wallman 写的有关《维数论》的书。现今习惯于静电复印的人也许很难想象我把除最后一章外的整本书抄了一遍。在最后一章中,作者是在没有正合序列概念的情况下处理正合序列的问题,我觉得很难理解。其实当时读论文作笔记是很普通的。复印大量资料并不能说明自己取得了多少进步。
我开始有了一些学生,其中有王宪钟和严志达。王后来对拓扑学作出了许多贡献,尽管他最出名的成果是王序列。严最早给出所有例外李群的 Betti 数的正确值。
回首往事,我并不认为自已对作为整体的数学有完善的见地。我清楚自己的某些不足并渴望得到充实。我的数学实力在于我能算。至今我不在乎繁复的计算,直到数年前我做这样的计算还很少出现差错。这方面的训练现在不大流行,也得不到鼓励,但在处理许多问题时它仍有很大的好处。
Gauss-Bonnet 公式曾使我着迷,我知道它的最概念化的证明是通过结构方程来表示联络形式的外微。当1943年我去普林斯顿时,它已为为我在数学工作中最得意的一篇论文开了题。
------------------------------------------D
普林斯顿阳光灿烂
我于 1943年8月抵达普林斯顿。气氛的变化令人难忘。那段日子高等研究院很清静,大多数人已离去为战事服务。Hermann Weyl 对我的工作很感兴趣。我访问之前他曾为《数学纪事》(Annals of Mathematics) 审阅过我一篇有关迷向曲面的论文,并写了一个很长的给予好评的报告。这件事是他亲自泄露给我的。报告提出了改进的建议,这说明他仔细地看了全文。我们经常交谈。Weyl 的深刻洞察之一是预言代数几何有非常美好的前景。
Andre Weil 那时在附近的 Lehigh 大学,我们很快就见了面并有好多可谈的内容。当时Weil 刚刚发表与 Allendoerfer 合作的关于 Gauss-Bonnet 公式的论文,它立刻成为我们讨论的话题。根据我对二维情况的埋解,我知道正确的证明应该建基于我们现在称之为超度 (transgression) 的概念之上。困难则有两个:1)当时我对关于向量场的奇点的Poincare-Hopf 定理不甚清楚;2)超度必须在单位切丛中而不是在主丛中实现,这就涉及到一个不平凡的技术困难。这两个困难我都在短时间克服了,事情有了一个满意的结果。我仍认为这是我做得最好的工作。
其后自然要把这个结果扩展到 Stiefel-Whitney 类。那时即使在普林斯顿,谈起纤维丛也必得从定义开始。那时没有矢量丛,只有球丛。我注意到复示性类较简单,容许局部曲率表示。这项工作不难,但它并非那个时代拓扑学的时尚课题。
我虽是高等研究院的成员,但很多时间是在普林斯顿大学的范氏大楼 注3 度过的。Chevalley 那时正在写他的有关李群的书。Lefschetz 则固执己见,他不愿用当时盛行的常规方法研究微分几何。当时请我为《数学纪事》审阅一篇论文而建议退稿后,他让我担任该刊的副主编 (associate editor)。
普林斯顿的环境与工作节拍令我十分惬意。我对数学的看法成熟多了。留居普林斯顿的日子使我感到极大的乐趣。近年来科学竞争已使科学家的生活大煞风景,尽管在数学方面的情况要好得多。我认为没有非要如此快地出成果的必要,我也不为电子邮件的发现所动。
普林斯顿阳光灿烂
我于 1943年8月抵达普林斯顿。气氛的变化令人难忘。那段日子高等研究院很清静,大多数人已离去为战事服务。Hermann Weyl 对我的工作很感兴趣。我访问之前他曾为《数学纪事》(Annals of Mathematics) 审阅过我一篇有关迷向曲面的论文,并写了一个很长的给予好评的报告。这件事是他亲自泄露给我的。报告提出了改进的建议,这说明他仔细地看了全文。我们经常交谈。Weyl 的深刻洞察之一是预言代数几何有非常美好的前景。
Andre Weil 那时在附近的 Lehigh 大学,我们很快就见了面并有好多可谈的内容。当时Weil 刚刚发表与 Allendoerfer 合作的关于 Gauss-Bonnet 公式的论文,它立刻成为我们讨论的话题。根据我对二维情况的埋解,我知道正确的证明应该建基于我们现在称之为超度 (transgression) 的概念之上。困难则有两个:1)当时我对关于向量场的奇点的Poincare-Hopf 定理不甚清楚;2)超度必须在单位切丛中而不是在主丛中实现,这就涉及到一个不平凡的技术困难。这两个困难我都在短时间克服了,事情有了一个满意的结果。我仍认为这是我做得最好的工作。
其后自然要把这个结果扩展到 Stiefel-Whitney 类。那时即使在普林斯顿,谈起纤维丛也必得从定义开始。那时没有矢量丛,只有球丛。我注意到复示性类较简单,容许局部曲率表示。这项工作不难,但它并非那个时代拓扑学的时尚课题。
我虽是高等研究院的成员,但很多时间是在普林斯顿大学的范氏大楼 注3 度过的。Chevalley 那时正在写他的有关李群的书。Lefschetz 则固执己见,他不愿用当时盛行的常规方法研究微分几何。当时请我为《数学纪事》审阅一篇论文而建议退稿后,他让我担任该刊的副主编 (associate editor)。
普林斯顿的环境与工作节拍令我十分惬意。我对数学的看法成熟多了。留居普林斯顿的日子使我感到极大的乐趣。近年来科学竞争已使科学家的生活大煞风景,尽管在数学方面的情况要好得多。我认为没有非要如此快地出成果的必要,我也不为电子邮件的发现所动。
1945年底我告别普林斯顿回中国。踏上故土立即受命组建中国的科学院,即中央研究院的数学研究院,其时二次大战虽已结束,中国却由于内战而处于分裂状态。我向Hermann Weyl 发出访华邀请,他欣然接受。但是中国当时的形势使这一访问未能实现。
1948年底南京政府处于崩溃之中,感谢高等研究院主动安排我离华。1949年冬季学期我在高等研究,是 Veblen 的微分几何讨论班的主讲人。讲稿两年后补写出来,流传甚广。
这些讲稿现收录在已出版的我的《论文选集》第四卷内。主要结果是 Weil 同态。这是陈类从酉群到任意李群的一个推广。1944年我在写有关复示性类的论文时就知道这个结果;由于未熟练掌握李群,当时未能证明它。Weil 通过考虑联络族,提供了一个关键性的思想。我把这个结果称为 Weil 同态。朋友们认为我应该分享这一荣誉,对此我自然不持异议。
---------------------------------------------E
数学上进入不惑之年
二次大战后,Marshall Stone 应召重组芝加哥大学数学系,并任系主任。他最早发出的两份聘约分别送达 Hassler Whitney 与 Andre Weil,这是他洞鉴数学与数学界的一个证明。Whitney 谢绝了,而 Weil 经过数次协商后接受了。
我在中国时 Stone 就曾写信给我谈起要在芝加哥为我提供一个讯问职位的事。1949年我来美国后,芝加哥大学数学系决定长期聘我。我认为芝加哥大学是美国唯一的其主要目标是「知识进步」而非教育的大学。我有许多朋友在那里的数学系;1949年夏我成了该系的成员。由此引出了一段愉快而有益的合作。
数学上进入不惑之年
二次大战后,Marshall Stone 应召重组芝加哥大学数学系,并任系主任。他最早发出的两份聘约分别送达 Hassler Whitney 与 Andre Weil,这是他洞鉴数学与数学界的一个证明。Whitney 谢绝了,而 Weil 经过数次协商后接受了。
我在中国时 Stone 就曾写信给我谈起要在芝加哥为我提供一个讯问职位的事。1949年我来美国后,芝加哥大学数学系决定长期聘我。我认为芝加哥大学是美国唯一的其主要目标是「知识进步」而非教育的大学。我有许多朋友在那里的数学系;1949年夏我成了该系的成员。由此引出了一段愉快而有益的合作。
1949~1950学年我开了一门名为「大范围微分几何」的课程,有一批才华横溢的学生。我自己正在开辟自己的道路,我的学生及时更正了我的许多错误和疏忽,这是生气勃勃而又有趣的结合。我还记得 Arnord Shapiro,他曾主持许多这样的讨论。回想起来,当时我对微分几何的了解还是初步的。这门学科中一些争论问题至今未决,也许正反映了它的力量之所在。例如,曲面是什么?是嵌入还是浸入,或是由可能有奇点的方程所定义的?另一方面,我的课上涉及的许多课题,也获得了新的多方面的发展。
我与 Weil 联系密切。他随时都有准备,随时都可合作。在与我讨论过数学的众多数学家中,Weil 是极少数能迅速抓全我的思想并给予有益的评说的数学家之一。我们常沿着密执安湖畔长时间的漫步,这在当时还很安全。
我对代数拓扑也感兴趣,偶尔开一门这方面的课。我与 Ed Spanier 在球丛的研究上进行过合作。所获结果之一是把 Gysin 的工作写成一个正合序列。Rene Thom 把它做得更明白化了,这个结果现在通常称为 Thom 同构。
我觉得芝加哥和汉堡都非常令人愉快。我认为两者的规模都很合适。不幸的是数学的发展已使一切都膨胀了。
----------------------------------------F
在西海岸定居
1960年我迁往伯克利 (Berkeley)。对我来说这地方并不陌生。我在中国的老师姜立夫教授就是在伯克利获得理学学位的。1946年和1949年我曾两度驻足伯克利并在伯克利数学系呆过一段时间。伯克利数学系是第一流的,它由 G.C. Evans 创建。Evans 曾在若干场合询问过我对去伯克利有无兴趣。Evans 的兄弟曾是天津著名的西文书店的老板。我曾在那儿买过一些课本,而书价一般贵得吓人。
Evans 要退休了,我去伯克利工作的事变得认真了,确实,我有时想到,自己年纪大了,伯克利较温暖的气候很有吸引力。当然,伯克利数学系在扩展,空运的发达已使加利福尼亚不再像从前那么孤立等因素,亦促成了我的这次迁居。
伯克利一直在提高它在数学界的地位,吸引着许多优秀的学生。在我指导下有31名研究生获博士学位,当然我还影响其它一些学生。我开始以「第二作者身份」注4 与年轻人合作撰写论文,如与 Bott,Griffiths、Moser,以及 Simons 等合作就是如此。在这种情况下我感觉责任较轻。生活越来越觉舒畅。
与我在学术上交往密切的同事有 Hans Lewy 和 Chuck Morrey,他们都是有创见、能力很强的分析学家。Lewy 和对 R6 中的三维黎曼度量的局部等距嵌入问题进行过一段时问的研究。它把我们导向三次渐近锥面的研究,我们弄清楚那是双曲的,但仅止于此。
数学中的微分的作用很奇妙。通常人们倾向于认为代数和拓扑是数学的两根支柱。但是事情并非那样简单;牛顿和莱布尼兹玩的是绝技。这一时期已经看到微分几何汇入了数学的主流。
在西海岸定居
1960年我迁往伯克利 (Berkeley)。对我来说这地方并不陌生。我在中国的老师姜立夫教授就是在伯克利获得理学学位的。1946年和1949年我曾两度驻足伯克利并在伯克利数学系呆过一段时间。伯克利数学系是第一流的,它由 G.C. Evans 创建。Evans 曾在若干场合询问过我对去伯克利有无兴趣。Evans 的兄弟曾是天津著名的西文书店的老板。我曾在那儿买过一些课本,而书价一般贵得吓人。
Evans 要退休了,我去伯克利工作的事变得认真了,确实,我有时想到,自己年纪大了,伯克利较温暖的气候很有吸引力。当然,伯克利数学系在扩展,空运的发达已使加利福尼亚不再像从前那么孤立等因素,亦促成了我的这次迁居。
伯克利一直在提高它在数学界的地位,吸引着许多优秀的学生。在我指导下有31名研究生获博士学位,当然我还影响其它一些学生。我开始以「第二作者身份」注4 与年轻人合作撰写论文,如与 Bott,Griffiths、Moser,以及 Simons 等合作就是如此。在这种情况下我感觉责任较轻。生活越来越觉舒畅。
与我在学术上交往密切的同事有 Hans Lewy 和 Chuck Morrey,他们都是有创见、能力很强的分析学家。Lewy 和对 R6 中的三维黎曼度量的局部等距嵌入问题进行过一段时问的研究。它把我们导向三次渐近锥面的研究,我们弄清楚那是双曲的,但仅止于此。
数学中的微分的作用很奇妙。通常人们倾向于认为代数和拓扑是数学的两根支柱。但是事情并非那样简单;牛顿和莱布尼兹玩的是绝技。这一时期已经看到微分几何汇入了数学的主流。
----------------------------------------------G
老耄之年的消遣
我的生命历程正在接近终点,我唯一的考虑是怎样度过这段时光。答案很简单,我将继续摆弄数学。体育运动我从来就不在行,现在就更不用说了。听音乐对我一直是浪费时间,偶尔介入此道,纯粹出于社交之故。所幸的是整体微分几何还有许多基本问题,尽管在其发展中我很可能仅是一名观众。
我认为,研究对象限于光滑流形只是由于技术上的原因,也是不能令人满意的。不仅很自然地存在着非光滑的流形,而且即使从光滑流形开始,诸如包络这样一些几何构造也将导致非光滑流形,hitney 引进了分层流形 (Stratifiad manifold) 的概念,它允许有奇点并可应用无穷小分析。最近 Robert McPherson 的工作又带来了新的希望。Cheeger-Goresky-McPherson 相交同调和 McPherson 陈类已揭示出这一概念的本质。(见2)
对我来说,Riemann 结构是否像最新的进展所表明的那样基本还不清楚。毕竟Riemann 在那篇历史性的论文中,允许他的度量是一种 4 次形式的 4 次根。更一般情形现在称之为Finsler 度量。我在最近的一篇注记4 中指出,只要采取适当的观点,Finsler 几何可以很简单地加以展开。进一步的发展则是必然的。
正如 Griffiths 曾注意到的,我之所以喜欢代数手法起因于我的经历。局部微分几何需要这样去作,但是要得到漂亮的局部性定理是困难的。很清楚,前面讨论过的有关最大秩的网的问题是很重要的问题,它将受到我的关注。
数学仍在不断地陶冶着我。
[1] P. Griffiths and J. Harris, Principles of Algebraic Geometry, John Wiley, 1978.
[2] Robert McPherson, Global questions in the topology of singular spaces, Proc. ICM Warszawa, vol 1, 198?, 213-235.
[3] J. Moser, Geometry of quadrics and spectral theory, Chern symposium, Sprin ger-Verlag, 1979, 147-148.
[4] S. Chern, On Finsler Geometry, Comptes Rendus, Academie des Sciences, Paris (1991).
老耄之年的消遣
我的生命历程正在接近终点,我唯一的考虑是怎样度过这段时光。答案很简单,我将继续摆弄数学。体育运动我从来就不在行,现在就更不用说了。听音乐对我一直是浪费时间,偶尔介入此道,纯粹出于社交之故。所幸的是整体微分几何还有许多基本问题,尽管在其发展中我很可能仅是一名观众。
我认为,研究对象限于光滑流形只是由于技术上的原因,也是不能令人满意的。不仅很自然地存在着非光滑的流形,而且即使从光滑流形开始,诸如包络这样一些几何构造也将导致非光滑流形,hitney 引进了分层流形 (Stratifiad manifold) 的概念,它允许有奇点并可应用无穷小分析。最近 Robert McPherson 的工作又带来了新的希望。Cheeger-Goresky-McPherson 相交同调和 McPherson 陈类已揭示出这一概念的本质。(见2)
对我来说,Riemann 结构是否像最新的进展所表明的那样基本还不清楚。毕竟Riemann 在那篇历史性的论文中,允许他的度量是一种 4 次形式的 4 次根。更一般情形现在称之为Finsler 度量。我在最近的一篇注记4 中指出,只要采取适当的观点,Finsler 几何可以很简单地加以展开。进一步的发展则是必然的。
正如 Griffiths 曾注意到的,我之所以喜欢代数手法起因于我的经历。局部微分几何需要这样去作,但是要得到漂亮的局部性定理是困难的。很清楚,前面讨论过的有关最大秩的网的问题是很重要的问题,它将受到我的关注。
数学仍在不断地陶冶着我。
[1] P. Griffiths and J. Harris, Principles of Algebraic Geometry, John Wiley, 1978.
[2] Robert McPherson, Global questions in the topology of singular spaces, Proc. ICM Warszawa, vol 1, 198?, 213-235.
[3] J. Moser, Geometry of quadrics and spectral theory, Chern symposium, Sprin ger-Verlag, 1979, 147-148.
[4] S. Chern, On Finsler Geometry, Comptes Rendus, Academie des Sciences, Paris (1991).
【转载】-量子场论,弦理论与数学
by:格致人生
【作者】:胡森
人们通常认为,近代科学与以前的科学的区分别是近代科学有实验。这种看法
是值得商榷的。著名物理学家杨振宁教授和著名哲学家海德格尔认为近代科学
的最根本的特征是数学和实验的结合,自然科学的定律用抽象的数学形式表达
,从而达到前所未有的深度和广度。作为近代科学标志的两大发明,万有引力
和微积分都是由牛顿创造的。在牛顿以后的科学发展中也反复印证了这一点。
近代科学史上许多有伟大贡献的自然科学家也是数学家。这种状况一直延续到
20世纪20年代。此后形式化的数学一度占据数学的中心,数学在很长一段时间
淡化了和其他科学,尤其是理论物理的联系。从20世纪20年代,量子场论开始
出现并逐步成为理论物理的中心。到20世纪70年代中数学和量子场论才开始建
立起密切的联系。从80年代以来,获得菲尔兹奖的数学家中其工作和量子场论
或弦论有直接联系的占一半。
对称性和量子化:支配物理和数学的两个基本原则
也许我们要问:为什麽量子场论和弦论会和数学有密切的关系?一个答案是,
它们被相同的原则所支配。其中最重要的原则是:对称性和量子化。
什麽是对称性?从一些建筑设计,巴赫的音乐和粒子物理中的CPT破缺(杨振宁
和李政道的诺贝尔奖工作)我们体验到各种离散对称性。伽罗瓦是第一个系统
研究离散对称性并用于解决高次多项式方程不可解的问题的。对于自然界连续
对称性似更重要。例如我们有:
。从伽里略的相对性原理导出牛顿第一定律,
。从洛伦茨对称性导出狭义相对论,
。从坐标变换不变性和局域洛伦茨不变性导出广义相对论,
。经魏耳等人的努力,电动力学可以表述为阿贝尔规范场,即具有局域变换不
变性,规范群是阿贝尔群
。非阿贝尔规范场,即杨-Mills场,是粒子物理的基础,也具有局域变换不变
性,规范群是非阿贝尔群
这里我们也许可以用两个原理来表述对称性的重要作用:
爱因斯坦原理:物理世界的规律应该和我们的表述无关。
杨振宁原理:对称性支配相互作用。
上述原理在几何中也是基本的。几何量,如长度,面积,体积等也是和描述他们
的方式无关。这一点充分反映在以下理论中:
嘉当和陈省身:活动标架法。
在70年代中杨振宁意识到规范场和陈省身先生研究的联络是一回事,似就是局域
对称性在物理和几何两个领域的各自实现。
以下我们解释一下什麽是量子化。
量子化原理:微观世界的描述不能用决定性的方式来描述,他们是几率式的。事
件的几率全体组成Hilbert 空间。动力学变量实现为Hilbert空间上的算子。
玻尔相容性原理:我们对于世界的每一种描述是不完备的,但是他们是相容,自
洽的。
测不准原理是玻尔相容性原理的具体实现。
我们知道,量子力学已成为了解微观世界的基本工具。在量子力学发明后不久,
人们把它用到电动力学的研究上。这时我们必须引入场的概念。经典的麦克斯韦
方程是线性方程。它的解就是无穷多个波的叠加。其量子化乃是将无穷多个谐振
子放在一起而无相互作用。当人们作计算时发现有许多无穷大。一直到1948年,
量子电动力学才在引入重正化以后有了有限的定义并和实验吻合的极好。在1954
年杨振宁-Mills 将规范场推广到非阿贝尔群。其量子化经许多人的努力得到实
现。人们发现量子规范场理论是唯一具有渐进自由性质的量子场论。物理学家对
于围扰场论用费曼图给出了定义。到1974年物理学家建立了基本粒子的标准模型
。从此物质场基本被标准模型所描述。在此过程中杨先生的“对称性支配相互作
用”起了重要作用。拉氏量中的相互作用往往被对称性的考虑所决定。人们也试
图在此框架下将引力量子化,没有成功。实际上,引力场是不可重整的。
为什麽要研究超弦理论?
由上我们也许可以得到一点启示,即相互作用的统一实际上是对称性的统一。从
20世纪70年代起,人们又发现了超对称。它是一种将对易和反对易关系非平凡的
合在一起的代数结构。将这种代数局域化我们得到局域超对称。在此类变换下不
变的就是所谓超引力。在超引力中我们所知道的4种相互作用合在一起。所以我们
说在经典的意义下超引力把4种相互作用统一起来了。超引力的量子理论就是超弦
理论。这就是为什麽我们认为超弦理论中包涵了量子引力。
弦理论把粒子不再看成一个点,而是看成一根弦。弦的运动扫出一条曲面,弦的
振动给出粒子。当粒子碰撞时,他们不在某个特定的点碰撞,因而免去场论中令
人头疼的无穷大问题。到了1985年人们发现共有5种协调的超弦理论。他们都在
10维时空中运动。在我们将其中6维空间紧致化以后,我们可以得到通常的4维规
范场论。从保持部分超对称的考虑,紧致化的6维空间必须是卡拉比-丘成桐空间
。弦理论里自然包涵引力子,超引力是超弦理论的低能极限. 在1985年人们面临
的问题是,在5种超弦理论中,哪一种是描述自然的?超弦理论如何和实验建立联
系?
在1995-1998的第二次超弦革命中,上述问题取得了突破。人们发现了对偶性,即
不同理论在其适当的范围内可以相互等价。其中最让人惊奇的是一些强相互作用的
理论和某些弱相互作用的理论等价。这就为人们研究强相互作用开辟了道路。人们
最初在超引力方程中找到了孤立子解,p-膜,后来在超弦中发现了在某些超对称变
换下不变的超对称态,D-膜。由于保持某些超对称,他们的量子性质与相互作用
强度无关。因而人们可以得到一些强耦合下的信息。人们发现上述5种超弦理论是
等价的。他们都是M理论的极限,M理论在低能下的极限就是11维的超引力。
上面所及的量子场论只是在微扰的情况下有意义。这相当于在很小的尺度下经典近
似是非常好的近似。反过来,当尺度变大,相互作用变强,上述理论失效。在粒子
物理里,人们猜测当尺度变大,相互作用变强,从而无法把夸克分开。这就是著名
的夸克幽禁猜测。这是标准模型中的核心问题之一。弦论前几年的发展为我们建立
夸克幽禁开辟了一条全新的道路。
实际上,前几年超弦理论的第二次革命使我们可以系统的处理非围扰的量子场论。
在超导,超流等研究中,最困难的是处理强耦合的系统。超弦理论因为具有较高的
超对称,目前还无法直接应用到超导,超流等系统中。
也许人们会认为,量子引力只在Planck尺度以下(10^{-33}cm)才起作用,这个尺
度目前和我们没有多大关系。弦论前几年的进展从第一原理导出黑洞熵的公式。这
对于超弦理论是强有力的实验支持。
另外,弦理论和数学有极其密切的关系。数学为弦理论提供了很多理想实验并得到
许多令人惊奇的结果。
量子场论和弦论的数学基础
从70年代以来,数学和场论及弦理论发生了密切的关系。70年代中杨振宁先生的关
于规范场和微分几何关系的工作,70年代末指标定理和反常的关系等起了很重要的作
用.
在代数的研究中,人们发现无穷维李代数如Kac-Moody代数及其表示理论为共形场论
及围扰弦理论建立了基础。而由特征标的对偶性质也可建立其它量子场论的对偶性
质。Borcherds将顶点算子数学化和应用到理解例外有限群使他荣获菲尔兹奖。
80年代,在低维拓扑的研究中有若干重大突破。有些数学事实很难被理解。例如
Donaldson(菲尔兹奖获得者)理论给出4维时空有无穷多种微分结构。这些结果被
Witten在量子场论的框架下得到自然的解释。Donaldson不变量即是某种N=2超对称
Yang-Mills场的相关函数。后来从对偶性考虑,Seiberg-Witten引入新的不变量,
使这一理论得到极大的简化。这一对偶性对于研究弦理论中的对偶性有启发性,是
引发第二次弦理论革命的重要线索。
还有许多和量子场论有关的工作,例如纽结多项式,模空间的相交理论,椭圆上同调,镜
对称等.这些工作大都是考虑场论的经典解并考虑附近的量子修正得到.数学家们抛开
物理背景直接从有限维构造这些理论.
我们对这种状况显然不能满意.到目前为止量子场论还没有建立起数学基础.量子场论
的考虑可以提供猜测,但无法提供证明.我们希望这种状况能够改变.在量子场论的框
架下直接考虑数学问题,使很多问题的理解变得直接明了.
如Witten最近在一些文章中所强调的,有两个问题是非常基本的。一个是量子
Yang-Mills规范场的有限性,这可从渐进自由看出。但是目前数学上还没有证明。另
一个是Yang-Mills场的质量界猜测,这和夸克幽禁有极其密切的联系。这也是Clay
研究所提出的7个千年僖数学难题。目前这问题最有希望的解答是通过和弦理论的对
偶得到。Maldacena前几年猜测具有极大超对称的以SU(N)为规范群的场论和某些以
1/N为耦合常数的弦论对偶.这种规范场/引力对偶近两年拓展到N=2, 1 的超对称
Yang-Mills场论. 夸克幽禁问题很可能在不远的将来得到解决.
Witten 建议数学家在作4维的量子场论的问题之前作2维和3维的场论.
对于2维Sigma模型,质量下界对于特定情形建立起来.我们应设法拓展到广泛的情形并
得到一些几何上的应用.对于3维场论他建议在Chern-Simons项前增加Yang-Mills项.
这种场论的质量也应当是有下界的.
弦理论的对偶性为数学提出许多深刻的问题. 例如Sen指出弦理论的某些对偶蕴涵某些
模空间上调和形式的关系.从物理学家的角度考虑,Seiberg-Witten-Donaldson的对
偶性可从弦论的对偶性解释。Seiberg-Witten-Donaldson的等价性是富有挑战性的
问题。也许我们需要建立某种无穷维的微积分,在这里BRST算子相当于无穷维的微分
算子。Seiberg-Witten的工作相当于对于有超对称的特别的Yang-Mills场建立了夸克
幽禁。
这些问题的实质性进展无疑将量子场论,弦论变为数学的一章.这是我们期待以久的.由
于数学和物理长期的隔阂,在国外将两者真正结合起来作的也是凤毛麟角.这对于我们
来说是个很好的机会. 我们希望中国的科学家能在此过程中继续作出贡献.
人们通常认为,近代科学与以前的科学的区分别是近代科学有实验。这种看法
是值得商榷的。著名物理学家杨振宁教授和著名哲学家海德格尔认为近代科学
的最根本的特征是数学和实验的结合,自然科学的定律用抽象的数学形式表达
,从而达到前所未有的深度和广度。作为近代科学标志的两大发明,万有引力
和微积分都是由牛顿创造的。在牛顿以后的科学发展中也反复印证了这一点。
近代科学史上许多有伟大贡献的自然科学家也是数学家。这种状况一直延续到
20世纪20年代。此后形式化的数学一度占据数学的中心,数学在很长一段时间
淡化了和其他科学,尤其是理论物理的联系。从20世纪20年代,量子场论开始
出现并逐步成为理论物理的中心。到20世纪70年代中数学和量子场论才开始建
立起密切的联系。从80年代以来,获得菲尔兹奖的数学家中其工作和量子场论
或弦论有直接联系的占一半。
对称性和量子化:支配物理和数学的两个基本原则
也许我们要问:为什麽量子场论和弦论会和数学有密切的关系?一个答案是,
它们被相同的原则所支配。其中最重要的原则是:对称性和量子化。
什麽是对称性?从一些建筑设计,巴赫的音乐和粒子物理中的CPT破缺(杨振宁
和李政道的诺贝尔奖工作)我们体验到各种离散对称性。伽罗瓦是第一个系统
研究离散对称性并用于解决高次多项式方程不可解的问题的。对于自然界连续
对称性似更重要。例如我们有:
。从伽里略的相对性原理导出牛顿第一定律,
。从洛伦茨对称性导出狭义相对论,
。从坐标变换不变性和局域洛伦茨不变性导出广义相对论,
。经魏耳等人的努力,电动力学可以表述为阿贝尔规范场,即具有局域变换不
变性,规范群是阿贝尔群
。非阿贝尔规范场,即杨-Mills场,是粒子物理的基础,也具有局域变换不变
性,规范群是非阿贝尔群
这里我们也许可以用两个原理来表述对称性的重要作用:
爱因斯坦原理:物理世界的规律应该和我们的表述无关。
杨振宁原理:对称性支配相互作用。
上述原理在几何中也是基本的。几何量,如长度,面积,体积等也是和描述他们
的方式无关。这一点充分反映在以下理论中:
嘉当和陈省身:活动标架法。
在70年代中杨振宁意识到规范场和陈省身先生研究的联络是一回事,似就是局域
对称性在物理和几何两个领域的各自实现。
以下我们解释一下什麽是量子化。
量子化原理:微观世界的描述不能用决定性的方式来描述,他们是几率式的。事
件的几率全体组成Hilbert 空间。动力学变量实现为Hilbert空间上的算子。
玻尔相容性原理:我们对于世界的每一种描述是不完备的,但是他们是相容,自
洽的。
测不准原理是玻尔相容性原理的具体实现。
我们知道,量子力学已成为了解微观世界的基本工具。在量子力学发明后不久,
人们把它用到电动力学的研究上。这时我们必须引入场的概念。经典的麦克斯韦
方程是线性方程。它的解就是无穷多个波的叠加。其量子化乃是将无穷多个谐振
子放在一起而无相互作用。当人们作计算时发现有许多无穷大。一直到1948年,
量子电动力学才在引入重正化以后有了有限的定义并和实验吻合的极好。在1954
年杨振宁-Mills 将规范场推广到非阿贝尔群。其量子化经许多人的努力得到实
现。人们发现量子规范场理论是唯一具有渐进自由性质的量子场论。物理学家对
于围扰场论用费曼图给出了定义。到1974年物理学家建立了基本粒子的标准模型
。从此物质场基本被标准模型所描述。在此过程中杨先生的“对称性支配相互作
用”起了重要作用。拉氏量中的相互作用往往被对称性的考虑所决定。人们也试
图在此框架下将引力量子化,没有成功。实际上,引力场是不可重整的。
为什麽要研究超弦理论?
由上我们也许可以得到一点启示,即相互作用的统一实际上是对称性的统一。从
20世纪70年代起,人们又发现了超对称。它是一种将对易和反对易关系非平凡的
合在一起的代数结构。将这种代数局域化我们得到局域超对称。在此类变换下不
变的就是所谓超引力。在超引力中我们所知道的4种相互作用合在一起。所以我们
说在经典的意义下超引力把4种相互作用统一起来了。超引力的量子理论就是超弦
理论。这就是为什麽我们认为超弦理论中包涵了量子引力。
弦理论把粒子不再看成一个点,而是看成一根弦。弦的运动扫出一条曲面,弦的
振动给出粒子。当粒子碰撞时,他们不在某个特定的点碰撞,因而免去场论中令
人头疼的无穷大问题。到了1985年人们发现共有5种协调的超弦理论。他们都在
10维时空中运动。在我们将其中6维空间紧致化以后,我们可以得到通常的4维规
范场论。从保持部分超对称的考虑,紧致化的6维空间必须是卡拉比-丘成桐空间
。弦理论里自然包涵引力子,超引力是超弦理论的低能极限. 在1985年人们面临
的问题是,在5种超弦理论中,哪一种是描述自然的?超弦理论如何和实验建立联
系?
在1995-1998的第二次超弦革命中,上述问题取得了突破。人们发现了对偶性,即
不同理论在其适当的范围内可以相互等价。其中最让人惊奇的是一些强相互作用的
理论和某些弱相互作用的理论等价。这就为人们研究强相互作用开辟了道路。人们
最初在超引力方程中找到了孤立子解,p-膜,后来在超弦中发现了在某些超对称变
换下不变的超对称态,D-膜。由于保持某些超对称,他们的量子性质与相互作用
强度无关。因而人们可以得到一些强耦合下的信息。人们发现上述5种超弦理论是
等价的。他们都是M理论的极限,M理论在低能下的极限就是11维的超引力。
上面所及的量子场论只是在微扰的情况下有意义。这相当于在很小的尺度下经典近
似是非常好的近似。反过来,当尺度变大,相互作用变强,上述理论失效。在粒子
物理里,人们猜测当尺度变大,相互作用变强,从而无法把夸克分开。这就是著名
的夸克幽禁猜测。这是标准模型中的核心问题之一。弦论前几年的发展为我们建立
夸克幽禁开辟了一条全新的道路。
实际上,前几年超弦理论的第二次革命使我们可以系统的处理非围扰的量子场论。
在超导,超流等研究中,最困难的是处理强耦合的系统。超弦理论因为具有较高的
超对称,目前还无法直接应用到超导,超流等系统中。
也许人们会认为,量子引力只在Planck尺度以下(10^{-33}cm)才起作用,这个尺
度目前和我们没有多大关系。弦论前几年的进展从第一原理导出黑洞熵的公式。这
对于超弦理论是强有力的实验支持。
另外,弦理论和数学有极其密切的关系。数学为弦理论提供了很多理想实验并得到
许多令人惊奇的结果。
量子场论和弦论的数学基础
从70年代以来,数学和场论及弦理论发生了密切的关系。70年代中杨振宁先生的关
于规范场和微分几何关系的工作,70年代末指标定理和反常的关系等起了很重要的作
用.
在代数的研究中,人们发现无穷维李代数如Kac-Moody代数及其表示理论为共形场论
及围扰弦理论建立了基础。而由特征标的对偶性质也可建立其它量子场论的对偶性
质。Borcherds将顶点算子数学化和应用到理解例外有限群使他荣获菲尔兹奖。
80年代,在低维拓扑的研究中有若干重大突破。有些数学事实很难被理解。例如
Donaldson(菲尔兹奖获得者)理论给出4维时空有无穷多种微分结构。这些结果被
Witten在量子场论的框架下得到自然的解释。Donaldson不变量即是某种N=2超对称
Yang-Mills场的相关函数。后来从对偶性考虑,Seiberg-Witten引入新的不变量,
使这一理论得到极大的简化。这一对偶性对于研究弦理论中的对偶性有启发性,是
引发第二次弦理论革命的重要线索。
还有许多和量子场论有关的工作,例如纽结多项式,模空间的相交理论,椭圆上同调,镜
对称等.这些工作大都是考虑场论的经典解并考虑附近的量子修正得到.数学家们抛开
物理背景直接从有限维构造这些理论.
我们对这种状况显然不能满意.到目前为止量子场论还没有建立起数学基础.量子场论
的考虑可以提供猜测,但无法提供证明.我们希望这种状况能够改变.在量子场论的框
架下直接考虑数学问题,使很多问题的理解变得直接明了.
如Witten最近在一些文章中所强调的,有两个问题是非常基本的。一个是量子
Yang-Mills规范场的有限性,这可从渐进自由看出。但是目前数学上还没有证明。另
一个是Yang-Mills场的质量界猜测,这和夸克幽禁有极其密切的联系。这也是Clay
研究所提出的7个千年僖数学难题。目前这问题最有希望的解答是通过和弦理论的对
偶得到。Maldacena前几年猜测具有极大超对称的以SU(N)为规范群的场论和某些以
1/N为耦合常数的弦论对偶.这种规范场/引力对偶近两年拓展到N=2, 1 的超对称
Yang-Mills场论. 夸克幽禁问题很可能在不远的将来得到解决.
Witten 建议数学家在作4维的量子场论的问题之前作2维和3维的场论.
对于2维Sigma模型,质量下界对于特定情形建立起来.我们应设法拓展到广泛的情形并
得到一些几何上的应用.对于3维场论他建议在Chern-Simons项前增加Yang-Mills项.
这种场论的质量也应当是有下界的.
弦理论的对偶性为数学提出许多深刻的问题. 例如Sen指出弦理论的某些对偶蕴涵某些
模空间上调和形式的关系.从物理学家的角度考虑,Seiberg-Witten-Donaldson的对
偶性可从弦论的对偶性解释。Seiberg-Witten-Donaldson的等价性是富有挑战性的
问题。也许我们需要建立某种无穷维的微积分,在这里BRST算子相当于无穷维的微分
算子。Seiberg-Witten的工作相当于对于有超对称的特别的Yang-Mills场建立了夸克
幽禁。
这些问题的实质性进展无疑将量子场论,弦论变为数学的一章.这是我们期待以久的.由
于数学和物理长期的隔阂,在国外将两者真正结合起来作的也是凤毛麟角.这对于我们
来说是个很好的机会. 我们希望中国的科学家能在此过程中继续作出贡献.
【转载】-智能视频监控产品的选择
by:格致人生
智能视频监控产品的选择
视频分析与识别(video analyzing and
recognition)技术指的是使用计算机从视频中通过运算和分析,提取视频中的有用信息的一项技术。对于人来说,看到一段视频时,这段视频对他来说往往是有意义的,是包含了一定信息量的,人可以智能化地提取这些信息,如某段视频有“有一辆白色的捷达车正在打着右转向灯准备向右转”这一信息,人也可以通过观察提取出来。但对于计算机来说却并非如此,在接收到这段视频(如通过视频采集卡输入)后,对计算机而言只是一个数据数列,一个包含每一帧每一个象素点的灰度值或彩色值的数列,并没有包括任何“白色捷达车”之类的信息,事实上,“白色捷达车”等信息是包含在那些象素点的值所组成的平面图像序列中的,是需要从“整体”上进行“理解”才能获得的,计算机也许可以“运算”出那些数据数列的均值、方差等统计信息,但却无法实现一种信息的“提取和理解”。
视频分析与识别技术便是为了让计算机通过特定的核心算法程序提取视频信号中所包含的内容信息或是个体运动信息,以实现计算机对于视频的“理解”,让计算机能“明白”视频中所展现的是什么内容或者发生的是什么样的“事件”。
视频分析技术范围很广,可以说只要是从视频中通过运算提取有用信息都可以称为视频分析技术,因为都是属于对“视频内容”的“分析、识别和理解”,从这个角度来说,目前已经比较成熟的并已经形成产品在实际项目中得到应用的技术都属于“视频分析技术”,例如车牌识别技术、视频检索技术、视频人脸检测等,因为这都属于对视频中的有用信息的提取,提取车牌号码,提取视频中的文字或特定图形等。严格地来说,这些技术都只是视频分析技术中的比较简单的内容,只不过由于这些技术已得到较好地研究和应用,有了一些专门的称谓,才单独提了出来,而似乎不再被归纳到“视频分析技术”的范畴。
由于习惯上的原因,目前通常所说的视频分析技术一般特指从视频中目标运动行为的分析、提取和识别,常用于监控和公共安全领域,其所指代的范围比之字面意思的含义已大幅缩小。
视频分析技术有什么用呢?事实上,视频分析技术是让计算机知道了视频中“发生的是什么事”,既然知道了发生的事件,再与对应的规则相比对和判断,自然就能够让计算机知道这些事件的特性。如果从视频中个体运动行为的分析、提取和识别角度来看,就能令计算机判断出这些个体进行了一些什么行为,进而可以判断这些行为是否符合某些规则,是否属于“某一类型”的行为,那么对于不符合规则的事件就可以进行即时的发现和报警,摆脱了人工的干预和判断,实现令计算机“代替” 人进行监控,也即实现了“自动监控”或是“智能监控”。从更形象一点的角度来解释,监控系统中摄像头和视频传输技术解决了“眼睛”的问题,使监控人员能够在不身处现场的情况下通过摄像头看到现场的情景,而这一现场还由于传输技术的进步摆脱了地域的限制,甚至于可以在千里之外(通过数字网络传输视频);而视频分析技术则给监控系统加上了“大脑”,使机器能够代替人(至少在一定程度上)来随时监看这些视频,无须再由人工随时去监看这些视频。
不容否认,对于视频分析技术的研究,但由于其算法的复杂度以及目标行为的多样性等原因,发展一直比较缓慢。而相对起来,由于国际上反恐形势更为紧迫,对于这种能实现“自动报警、智能监控”的技术比之国内的研究单位来说,研究成果具有一定的领先性。已生产出成熟的智能视频监控产品,可以用在监控系统中实现异常状态自动报警的功能,具有实时报警、缩短异常事件反应时间、减少损失、增强监控系统威慑力等特点,并已具有了一些实际的工程案例。而在国内,由于技术研发稍有落后,暂时市面上绝大多数较为成熟的智能视频监控产品仍都是舶来品,属于国外的技术和产品,偶尔有一些国内厂家或研究单位推出自己的智能视频监控产品,也暂时还处于较为初级的阶段,还没有达到成熟的程度。
不过值得指出的是,目前国外的产品虽然较为成熟,但也并未达到能令用户完全满意的程度,也只是具有了比较低级的智能化水平,能完成一些较为简单的行为的自动检测。但不管怎么说,这一步已经迈出去了,视频分析技术已开始应用于实际工程系统,随着这一技术的不断进步,研究不断深入,必将越来越多地走入我们的生活。
无论是现在还是将来,只要是想采用视频分析技术产品,想实现智能化地监控方式,都会面临一个问题,即:应该如何选择合适的,性能更好地视频分析技术产品呢?什么样的产品才是最适合自己的需要的呢?
由于使用环境的不同,使用目的的不同,希望实现自动检测的行为的不同,对于视频分析技术产品的选择都会有一些细微的差别,本文并不去讨论谁的技术最好,也不去讨论哪一家的产品性能更优(事实上,没有任何一家的产品能够远远地超过其他同类产品,也没有任何一家产品做到了尽善尽美令用户十分满意),仅仅针对在选择视频分析技术产品时应该留意的方面做一些小小的讨论。
事实上,我们在选择不同的视频分析技术产品时,大部分情况下都应该就以下几个方面进行初步地考察,如果哪一种产品连这些方面的性能都差得比较远的话,那么这种产品可以说是并不非常适合于实际工程应用的,应该在选择中予以慎重考虑:
l 光照适应性:相信绝大部分监控系统都不会只在某个固定的时候才使用,大部分情况下都要求处于正常工作状态。而对于长时间工作的监控系统来说,其使用环境的光照情况都是变化的。在室外使用的监控系统不必说了,阴晴雨雪雾日夜,室外的光照条件是变化巨大的,还包括了强光、反光、逆光、阴影等因素。至于室内,虽然比室外简单得多,但也存在灯光明暗、开灯关灯、阴影、人员走动等因素引起的光照条件的变化。视频分析技术不可能仅使用在特定的光照条件下(当然,在某些极特殊的场合也许真的是恒定光照的),不能去要求使用环境来适应算法技术,而应该大力改进核心算法来使视频分析功能在各种光照环境条件下都能实现较好的监控性能。因此,视频分析核心技术对于光照的适应能力是用户选择视频分析技术产品时需要考虑的一个极为重要的因素。
l 稳定性:大部分监控系统都要求能实现7*24小时长时间不间断稳定运行,平均无故障运行时间一般都要求在至少一万小时以上。在这一要求下,视频分析技术产品是否具有较高的系统稳定性应该是一个值得注意的因素,不可能三天两头地死机、出错,稳定性太差的产品是无法真正实用的。从这一角度来说,嵌入式结构的视频分析技术产品相对于微机软件版产品来说具有一定的优势,其最大的特点就是稳定性高。
l 抗抖动:连地球都会有地震,安装的摄像头不可能是绝对静止的,就某些应用领域来说(如交通行业),有很多的因素都会造成摄像头的轻微抖动(如旁边过车,或者大风吹来),这种摄像头的抖动反映在视频中即是视野的不断抖动,而视频分析技术是要从视频中进行目标的定位和跟踪来实现的,如果抗抖动性能太差,总是失去对目标的跟踪,导致提取不出目标的运动轨迹或者提取错误,那么这一产品也基本就没有什么实用价值了。
l 抗模糊:对于监控技术略微了解的人都知道,摄像头的焦距是存在飘移现象的,即长时间不动的摄像头,其焦距往往会产生一定的偏差,不再保持原来的焦距值,焦距的偏差直接的后果就是视频图像的模糊。我们不能要求监控人员随时去调整摄像头的焦距,因此,要实现较好的视频分析效果,需要算法对模糊的视频信号进行有效而准确的分析,即在模糊的视频基础上仍然保持较好的视频分析性能。
l 模块化:做过工程的技术人员都知道,系统的模块化结构是一个很严肃的问题,模块化的系统不但很容易安装,象搭积木一样,组装起来就行,而且更为重要的是:故障排查简单,维护方便,系统模块间的藕合性越小越好。因此,是否具有模块化的产品结构,也应该是用户在选择视频分析技术产品时应该考虑的一个重要问题。
l 技术支持和售后服务:视频分析技术产品目前来说还是一类没有标准化,使用起来并不十分方便的产品,一方面是因为安装调试起来专业性比较强,往往需要专业技术人员来进行调试和根据使用环境具体情况而规定参数,另一方面是因为产品和技术并不十分成熟,在使用过程中需要较多的技术支持。因此,用户在选择视频分析技术产品时也应该多加考虑产品的技术支持和售后服务方面。从某一方面来说,国内厂家占了地利人和,与国外厂商相比有一定优势,实现起来会更方便许多,反馈也会迅速许多。而同样是国内厂商,也应该选择技术和经济实力较为雄厚的企业,才能真正获得有保障的、有效率的技术支持和售后服务。需要指出的是,在这里指的是提供技术支持和服务的厂商,这类厂商不一定是相关产品的直接开发或生产商,也包括了只是承担服务工作的代理商或渠道商。
以上仅仅是就一些基础性的问题略微讨论了一下,估且不论用户拿着视频分析技术产品是用在哪个地方,哪个领域,都应该将上边所提到的一些方面作为产品选择的重要因素来考虑。
-MATE
No comments:
Post a Comment