宇宙中只有光是不变的,神说我就是光,光速在空间运动的系统,没有一点在时间运动,所以没有时间的流逝
【论文】基于稀疏信号同伦形变的鲁棒性特征学习方法_百度文库
wenku.baidu.com/.../1acb82228e9951e79a892709.html?re... - 轉為繁體網頁
在线互动式文档分享平台,在这里,您可以和千万网友分享自己手中的文档,全文阅读其他用户的文档,同时,也可以利用分享文档获取的积分下载文档.基于稀疏信号同伦形变的鲁棒性特征学习方法 - 文章详细信息
jsjk.chinajournal.net.cn/WKC/.../paperDigest.aspx?...
轉為繁體網頁
惠寅华;李凡长;. 1:苏州大学计算机科学与技术学院. 摘要:. 在人脸识别问题中,为克服同一个人由于在表情与姿势上的不同给识别带来的困难,设计了基于同伦伪不变性 ...轉為繁體網頁
基于稀疏信号同伦形变的鲁棒性特征学习方法 - 中国学术期刊 ...
www.cnki.net/KCMS/detail/detail.aspx?...CJFQ...
翻譯這個網頁
基于稀疏信号同伦形变的鲁棒性特征学习方法. 推荐 CAJ下载 · PDF下载 · CAJViewer下载; 不支持迅雷等下载工具。 免费订阅. 计算机工程与科学 , Computer翻譯這個網頁
基于稀疏信号同伦形变的鲁棒性特征学习方法- China ... - CNKI
en.oversea.cnki.net/KNS55/GetInfoByDOI.aspx?...
轉為繁體網頁
【Abstract in Chinese】 在人脸识别问题中,为克服同一个人由于在表情与姿势上的不同给识别带来的困难,设计了基于同伦伪不变性的目标识别与图像检索方法。轉為繁體網頁
閉形式和恰當形式- 維基百科,自由的百科全書 - Wikipedia
zh.wikipedia.org/zh-hk/闭形式和恰当形式
所以如果F 是X 到一點Q 的同倫形變,那麼. F \circ j_1 = id, \; F \circ j_0 = Q\. 在形式上:. j_1 ^* \circ F^* = id, \; j_0^*. 將這兩個等式代入上鏈同倫等式便證明了龐加萊 ...基于稀疏信号同伦形变的鲁棒性特征学习方法_智立方
tests.ss.cqvip.com/zlf/articles/article_detail.aspx?id...
轉為繁體網頁
搜索. 高级检索. 推荐查询主题--点击查看检索词可扩展的如下查询主题:. 会议论文详细信息. 基于稀疏信号同伦形变的鲁棒性特征学习方法. 获取全文. 我的收藏. 名称:轉為繁體網頁
基于稀疏信号同伦形变的鲁棒性特征学习方法Homotopy ...
d.wanfangdata.com.cn › ... › 2013年4期 - 轉為繁體網頁
2013年5月16日 - 在人脸识别问题中,为克服同一个人由于在表情与姿势上的不同给识别带来的困难,基于稀疏信号同伦形变的鲁棒性特征学习方法- 中国学术期刊 ...
202.38.93.12/KNS55/GetInfoByDOI.aspx?dbCode...
轉為繁體網頁
【摘要】 在人脸识别问题中,为克服同一个人由于在表情与姿势上的不同给识别带来的困难,设计了基于同伦伪不变性的目标识别与图像检索方法。人脸识别中的光照变化 ...轉為繁體網頁
基于同伦分析法的亚式期权定价研究
lib.nygbpx.org/.../detail.aspx?...
轉為繁體網頁
章节最后构造出了符合其金融含义的同伦形变方程,成功将该自由边界问题变成了多个固定边界的问题。 第三章,对方程求解之前,首先对零阶形变方程和高阶形变方程 ...轉為繁體網頁
基于同伦分析法的亚式期权定价研究 - 学位论文下载,博士论文
cdmd.cnki.com.cn/Article/CDMD-10561-1013318080.htm
轉為繁體網頁
轉為繁體網頁
由 文彬 著作 - 2013
第二章,推导出亚式期权定价模型,然后引出算术平均亚式期权定价模型并进行了同伦 形变,将其转化成一个带有自由边界的二阶偏微分方程。章节最后构造出了符合其 ...
信号的鲁棒性特征学习方法综述- 学习指导论文 - 学术杂志网
2013年7月3日 - 稀疏拉伸分析首先对进行同伦形变的稀疏信号进行适当分析。我们采用的是文献[6] 中的字典设计方法,假设有N个训练图像集合Si(i=1,…
椭圆算子的基本知识| Fight with Infinity
https://zx31415.wordpress.com/.../椭圆算子的基本知识/
轉為繁體網頁
2012年2月20日 - 由此知指标在椭圆算子的同伦形变下保持不变,特别是,在其主符号的正则同伦形变轉為繁體網頁
向量场的旋转度--中国百科网
www.chinabaike.com/article/.../200805141486022.html - 轉為繁體網頁
向量场的旋转度在不通过X的奇点的曲线L的同伦形变下保持不变. 推广由在一个n维流形M上在v的弧立点P 处的向量场v的指标(i斑Jex ofa城戈tor field)的概念组成.闭形式和恰当形式_唐人百科
www.wikipediacn.info/view/闭微分形式
轉為繁體網頁
所以如果F 是X 到一点Q 的同伦形变,那么. F \circ j_1 = id, \; F \circ j_0 = Q\. 在形式上:. j_1 ^* \circ F^* = id, \; j_0^*. 将这两个等式代入上链同伦等式便证明了庞加莱 ...轉為繁體網頁
[转载]椭圆算子的谱分解 - 新浪博客 - 新浪网
blog.sina.com.cn/s/blog_9f045b3101016fdz.html - 轉為繁體網頁
2012年8月26日 - 由此知指标在椭圆算子的同伦形变下保持不变,特别是,在其主符号的正则同伦形变求助基本群和同调群怎么计算? - 几何拓扑版博士数学论坛
www.math.org.cn › 论坛
轉為繁體網頁
轉為繁體網頁
2015年1月15日 - 5 篇文章 - 2 位作者
问题太大了,最好拿具体问题来问。 基本的方法是对空间进行同伦形变(不改变基本群和同调群),变化成熟悉的空间。此外还有Van Kampen ...图像处理的溃疡| 个人信息与个人安全
jpostsildavid.blogspot.com/2014/12/blog-post_20.html
轉為繁體網頁
2014年12月20日 - 这里有一个别人的建议:最简单的输入,没有推理的那种,就可以使用二维的同伦轉為繁體網頁
大学数学系基础学习大纲(数学有风险,入行需谨慎)(先开个头 ...
page.renren.com/601654129/note/906973424
轉為繁體網頁
轉為繁體網頁
2013年6月14日 - D 同伦等价和同伦形变. E 流形和微分流形. F 拓扑向量空间以及其他拓扑代数结构. 参考资料: 点集拓扑中的反例,数学辞海. 3 数理逻辑学. 数理逻辑 ...
浅谈流形学习
总觉得即使是“浅谈”两个字,还是让这个标题有些过大了,更何况我自己也才刚刚接触这么一个领域。不过懒得想其他标题了,想起来要扯一下这个话题,也是因为和朋友聊起我自己最近在做的方向。Manifold
Learning 或者仅仅 Manifold
本身通常就听起来颇有些深奥的感觉,不过如果并不是想要进行严格的理论推导的话,也可以从许多直观的例子得到一些感性的认识,正好我也就借这个机会来简单地谈一下这个话题吧,或者说至少是我到目前为止对这它的认识。
这两个词,在谈 Manifold 之前,不妨先说说 Learning ,也就是 Machine Learning 。而说道 Machine Learning 而不提一下 Artificial Intelligence 的话似乎又显得有些不厚道。人说 AI 是一门最悲剧的学科,因为每当它的一个子领域发展得像模像样之后,就立马自立门户,从此和 AI “再无瓜葛”了,而 Machine Learning 大概要算是最新的一个典型吧。这就让人有点奇怪,比如说数学,分门别类总算是够多了吧?可以不管怎么分,大家兄弟姐妹也都还承认自己是叫“数学”的。那 AI 呢?我觉得这里有很大一部分是它自身定位的问题。
反正现在我是不太清楚 AI 是做什么的,不知道其他人到底清楚不清楚。Wikipedia 上说
这个时候,AI 的一些旁枝或者子领域果断放下面子,丢掉了那个近乎玄幻的目标,逐渐发展成为“正常”的学科,所以也就不再好称为 AI 了。或者说现在的 AI 有两个意思,一个广义的 AI ,包括了所有相关的以及派生的领域,另一个则是狭义的或者经典的 AI ,专门指那些仍然在执着地追求着真正的“智能”的部分,或者说得不好听一点,就是剩下的部分。
Machine Learning 作为离家出走的典型,虽然名字里带了 Learning 一个词,让人乍一看觉得和 Intelligence 相比不过是换了个说法而已,然而事实上这里的 Learning 的意义要朴素得多。我们来看一看 Machine Learning 的典型的流程就知道了,其实有时候觉得和应用数学或者更通俗的数学建模有些类似,通常我们会有需要分析或者处理的数据,根据一些经验和一些假设,我们可以构建一个模型,这个模型会有一些参数(即使是非参数化方法,也是可以类似地看待的),根据数据来求解模型参数的过程,就叫做 Parameter Estimation ,或者 Model Fitting ,但是搞机器学习的人,通常把它叫做 Learning (或者,换一个角度,叫 Training)——因为根据数据归纳出一个有用的模型,这和我们人类“学习”的过程还是挺类似的吧。不过,如果抛开无聊的抠字眼游戏的话,我们可以看到,Machine Learning 已经抛弃了“智能”的高帽子,它的目的就是要解决具体的问题——而并不关心是否是通过一种“智能”的方式类解决的。
说到这里,其实我们构造模型就类似于写一个类,数据就是构造函数的参数,Learning 就是构造函数运行的过程,成功构造一个对象之后,我们就完成了学习。一些 Machine Learning 的问题到这一步就结束了,另一些情况还会使用得到的模型(对象)对后来的数据进行一些处理,通常会是 Inferencing 。到这个时候,又有些像统计里的东西了,所谓“统计推断”嘛。其实原本统计和机器学习研究的不少问题就是交叉在一起的,不过两派人从不同的角度来看待同样的问题。而且,也确实有 Statistical Learning 这么一个说法存在的,可以把他看成是 Machine Learning 的一个子领域(或者是一个分子或者甚至就是 Machine Learning 本身)。
到这里,如果你还没有因为不断地抠字眼而烦躁的话,我已经忍无可忍了。所以,我就假定你已经了解了什么叫 Learning ,或者是已经恶心到懒得去了解了。于是我们转入下一个话题:流形,也就是 Manifold 。不知道你有没有为我在本文开头放上的那个地球的图片感到困惑?这是因为球面是一个很典型的流形的例子,而地球就是一个很典型的“球面”啦(姑且当作球面好啦)。
有时候经常会在 paper 里看到“嵌入在高维空间中的低维流形”,不过高维的数据对于我们这些可怜的低维生物来说总是很难以想像,所以最直观的例子通常都会是嵌入在三维空间中的二维或者一维流行。比如说一块布,可以把它看成一个二维平面,这是一个二维的欧氏空间,现在我们(在三维)中把它扭一扭,它就变成了一个流形(当然,不扭的时候,它也是一个流形,欧氏空间是流形的一种特殊情况)。
所以,直观上来讲,一个流形好比是一个 d 维的空间,在一个 m 维的空间中 (m > d) 被扭曲之后的结果。需要注意的是,流形并不是一个“形状”,而是一个“空间”,如果你觉得“扭曲的空间”难以想象,那么请再回忆之前一块布的例子。如果我没弄错的话,广义相对论似乎就是把我们的时空当作一个四维流(空间三维加上时间一维)形来研究的,引力就是这个流形扭曲的结果。当然,这些都是直观上的概念,其实流形并不需要依靠嵌入在一个“外围空间”而存在,稍微正式一点来说,一个 d 维的流形就是一个在任意点出局部同胚于(简单地说,就是正逆映射都是光滑的一一映射)欧氏空间 。实际上,正是这种局部与欧氏空间的同胚给我们带来了很多好处,这使得我们在日常生活中许许多多的几何问题都可以使用简单的欧氏几何来解决,因为和地球的尺度比起来,我们的日常生活就算是一个很小的局部啦——我突然想起《七龙珠》里的那个界王住的那种私人小星球,走几步就要绕一圈的感觉,看来界王不仅要体力好(那上面重力似乎是地球的十倍),而且脑力也要好,初中学的必须是黎曼几何了!
那么,除了地球这种简单的例子,实际应用中的数据,怎么知道它是不是一个流形呢?于是不妨又回归直观的感觉。再从球面说起,如果我们事先不知道球面的存在,那么球面上的点,其实就是三维欧氏空间上的点,可以用一个三元组来表示其坐标。但是和空间中的普通点不一样的是,它们允许出现的位置受到了一定的限制,具体到球面,可以可以看一下它的参数方程:
可以看到,这些三维的坐标实际上是由两个变量 和 生成的,也可以说成是它的自由度是二,也正好对应了它是一个二维的流形。有了这样的感觉之后,再来看流形学习里经常用到的人脸的例子,就很自然了。下图是 Isomap 论文里的一个结果:
这里的图片来自同一张人脸(好吧,其实是人脸模型),每张图片是 64×64 的灰度图,如果把位图按照列(或行)拼起来,就可以得到一个 4096 维的向量,这样一来,每一张图片就可以看成是 4096 维欧氏空间中的一个点。很显然,并不是 4096 维空间中任意一个点都可以对应于一张人脸图片的,这就类似于球面的情形,我们可以假定所有可以是人脸的 4096 维向量实际上分布在一个 d 维 (d < 4096) 的子空间中。而特定到 Isomap 的人脸这个例子,实际上我们知道所有的 698 张图片是拍自同一个人脸(模型),不过是在不同的 pose 和光照下拍摄的,如果把 pose (上下和左右)当作两个自由度,而光照当作一个自由度,那么这些图片实际只有三个自由度,换句话说,存在一个类似于球面一样的参数方程(当然,解析式是没法写出来的),给定一组参数(也就是上下、左右的 pose 和光照这三个值),就可以生成出对应的 4096 维的坐标来。换句话说,这是一个嵌入在 4096 维欧氏空间中的一个 3 维流形。 实际上,上面的那张图就是 Isomap 将这个数据集从 4096 维映射到 3 维空间中,并显示了其中 2 维的结果,图中的小点就是每个人脸在这个二维空间中对应的坐标位置,其中一些标红圈的点被选出来,并在旁边画上了该点对应的原始图片,可以很直观地看出这两个维度正好对应了 pose 的两个自由度平滑变化的结果。 就我目前所知,把流形引入到机器学习领域来主要有两种用途:一是将原来在欧氏空间中适用的算法加以改造,使得它工作在流形上,直接或间接地对流形的结构和性质加以利用;二是直接分析流形的结构,并试图将其映射到一个欧氏空间中,再在得到的结果上运用以前适用于欧氏空间的算法来进行学习。 这里 Isomap 正巧是一个非常典型的例子,因为它实际上是通过“改造一种原本适用于欧氏空间的算法”,达到了“将流形映射到一个欧氏空间”的目的。 :) Isomap 所改造的这个方法叫做 Multidimensional Scaling (MDS) ,MDS 是一种降维方法,它的目的就是使得降维之后的点两两之间的距离尽量不变(也就是和在原是空间中对应的两个点之间的距离要差不多)。只是 MDS 是针对欧氏空间设计的,对于距离的计算也是使用欧氏距离来完成的。如果数据分布在一个流形上的话,欧氏距离就不适用了。
让我们再回到地球——这个在三维空间中的二维流形,假设我们要在三维空间中计算北极点和南极点的距离,这很容易,就是两点相连的线段的长度,可是,如果要在这个流形上算距离就不能这样子算了,我们总不能从北极打个洞钻到南极去吧?要沿着地球表面走才行,当然,如果我随便沿着什么路线走一遍,然后数出总共走了多少步作为距离,这是不成的,因为这样一来如果我沿着不同的路线走,岂不是会得到不同的距离值?总而言之,我们现在需要一个新的定义在地球表面(流形)上的距离度量,理论上来说,任意满足测度的 4 个条件的函数都可以被定义为距离,不过,为了和欧氏空间对应起来,这里选择一个直线距离的推广定义。
还记得初中学的“两点之间,线段最短”吗?现在,我们反过来说,把线段的概念推广一下,变成“两点之间最短的曲线是线段”,于是流形上的距离定义也就等同于欧氏空间了:流形上两个点之间的距离就是连接两个点的“线段”的长度。虽然只是置换了一个概念,但是现在两者统一起来了,不过,在流形上的线段大概就不一定是“直”的了(于是直线也变成不一定是“直”的了),通常又称作是“测地线”。对于球面这个简单的流形来说,任意一条线段必定是在一个“大圆”上的,于是球面上的直线其实都是一些大圆,也造成了球面这个流形上没有平行线等一系列尴尬的局面(任意两条直线均相交),如果你看过一些数学科普八卦类的书,应该会回忆起不少东西啦!
回到 Isomap ,它主要做了一件事情,就是把 MDS 中原始空间中距离的计算从欧氏距离换为了流形上的测地距离。当然,如果流形的结构事先不知道的话,这个距离是没法算的,于是 Isomap 通过将数据点连接起来构成一个邻接 Graph 来离散地近似原来的流形,而测地距离也相应地通过 Graph 上的最短路径来近似了。如下图所示:
这个东西叫做 Swiss Roll ,姑且把它看作一块卷起来的布好了。图中两个标黑圈的点,如果通过外围欧氏空间中的欧氏距离来计算的话,会是挨得很近的点,可是在流形上它们实际上是距离很远的点:红色的线是 Isomap 求出来的流形上的距离。可以想像,如果是原始的 MDS 的话,降维之后肯定会是很暴力地直接把它投影到二维空间中,完全无视流形结构,而 Isomap 则可以成功地将流形“展开”之后再做投影。
除了 Isomap 之外,Manifold Embedding 的算法还有很多很多,包括 Locally Linear Embedding 、Laplacian Eigenmaps 、Hessian Eigenmaps 、Local Tangent Space Alignment、Semidefinite Embedding (Maximum Variance Unfolding) 等等等等。哪个好哪个坏也不好说,它们都各有特点,而且也各自有不少变种。网上有一个 Matlab 的 demo ,给出了几种流行的 manifold embedding 算法在一些 synthetic manifold 上的结果和对比,可以有一个直观的认识。
另一方面是改造现有算法使其适合流形结构甚至专门针对流形的特点来设计新的算法,比较典型的是 graph regularized semi-supervised learning 。简单地说,在 supervised learning 中,我们只能利用有 label 的数据,而(通常都会有很多的)没有 label 的数据则白白浪费掉。在流形假设下,虽然这些数据没有 label ,但是仍然是可以有助于 Learn 出流形的结构的,而学出了流形结构之后实际上我们就是对原来的问题又多了一些认识,于是理所当然地期望能得到更好的结果喽。
当然,所有的这些都是基于同一个假设,那就是数据是分布在一个流形上的(部分算法可能会有稍微宽松一些的假设),然而 real world 的数据,究竟哪些是分别在流形上的呢?这个却是很难说。不过,除了典型的 face 和 hand written digit 之外,大家也有把基于流形的算法直接用在诸如 text 看起来好像也流形没有什么关系的数据上,效果似乎也还不错。
话说回来,虽然和实际应用结合起来是非常重要的一个问题,但是也并不是决定性的,特别是对于搞理论方面的人来说。我想,对于他们来说,其实也像是在做应用啦,不过是把数学里的东西应用到机器学习所研究的问题里来,而且其中关系错综复杂,图论、代数、拓扑、几何……仿佛是十八路诸侯齐聚一堂,所以让我总觉得要再花 500 年来恶补数学才行呀!
不过我表示可以理解其中存在的潜在的 happy 之处,就好比你玩游戏,先玩了《天地劫:神魔至尊传》,然后再玩《天地劫序章:幽城幻剑录》的时候,会发现里面的人物、剧情逐渐地联系起来,也许甚至只是在一个地方出现过的一个完全不起眼的配角,当你再在另一地方突然看到他是,一系列的线索瞬间被联系起来,全局的画面渐渐浮现,那种 happy 的感觉,大概就是所谓的“拨云见日”了吧!
所以呀,这些东西其实都是差不多的,有时候想想那些泰斗站在顶峰上“一览众山小”的感觉,那种“融会贯通”的感觉,真是让人各种羡慕呀!无奈就只好去爬爬老和山北高峰来体验体验了。
最后是总结:所谓 Machine Learning 里的 Learning ,就是在建立一个模型之后,通过给定数据来求解模型参数。而 Manifold Learning 就是在模型里包含了对数据的流形假设。嗯,还有什么?还有就是,我画的坐在楼兰古城城墙上的冰璃,一点都不像…… >_< 幽城迷不要砍我…… Update 2011.02.28: 根据留言里的信息,“流形”这个中文词取自文天祥的“天地有正气,杂然赋流形”,这个词第一次作为当前的数学意义使用是由北大数学系的一位老教授江泽涵老先生。老先生是我国代数拓扑学的开拓者。还是 caszgh 同学的导师的大学时代的老师
而是物理学的核心和主干——对称性。从牛顿到麦克斯韦、到狭义相对论、到广义相对论、再到亚原子结构,整个物理学围绕着对称性逐渐走向深入和统一
但还有很多对称性是不那么直观的,比如在物理学中,对称性涵义丰富,它有时候指空间的均质性(即空间对物理定律的无差别适用性,它对应着伽利略不变性、洛仑兹不变性和广义协变,);有时指分子运动的无差别性,这与我们常识不同,方向各异的分子不规则运动(比如气体,比如麻将中的13不靠,混乱的极至是秩序)被认为是具有高度对称性的,而磁铁那样有高度秩序有方向感的分子排列却被认为是不对称的(因为有了方向的偏爱);而在原子结构中,从海森堡开始,对称性又被拓展为粒子内部空间结构问题, 而在数学中情况变得又简单又复杂。简单是因为宇宙中所有的对称性都可以用一种叫“群论”的数学来描述;
物理学最早的对称性是伽利略对称,或伽利略变换只是空间坐标的变换,与时间无关,意味着在此基础上的牛顿定律通过它对任何不同运动状态的观察者而言是不变的。这种变换和不变性意味着物理定律对不同惯性系统的对称性。
但麦克斯韦把电和磁统一成一组方程后,问题出来了,光速可以从其方程里算出来,而且实验物理学家发现光速是个常量,与观测者的运动状态无关。通过光速不变,会导致推论出高速运动的时间膨胀,和空间收缩,甚至E=MC2。爱因斯坦甚至宣布世界的一切事物都是以光速在时空中运动。高速运动的系统里意味他在时间里的运动比静止系统的慢,因为他在时间里的运动有些转移到空间了,所以他的钟会变慢。进而推论假如系统在时间里的运动完全转移到空间来了,系统在空间的运动速度就达到最大速度。进而推论到以光速在空间运动的系统,没有一点在时间运动,因此光子不会老,从大爆炸出来的光子到今天依然一样,在光速下,没有时间的流逝。
这时需要引进洛仑兹变对称性,它的基本意思是这样的,一个物理定律对不同的惯性系都有不变的形式结构,同时在不同的惯性系看来光速是不变量。爱因斯坦用洛仑兹变换检验和改造了牛顿力学,使之成为洛仑兹不变的力学理论——狭义相对论。“所谓相对论,与其说是一种理论,不如说是对物理理论的一种很合理很基本很公理化的要求”,就是要求物理理论要满足洛仑兹不变性。爱因斯坦对上帝思想的直觉判断,他相信上帝的思想和美学极其简单,它不过就是要求上帝的旨意不能因时因地因人而异,于是这个简单得不能再简单的要求演绎出特别费解和深奥的理论。但再费解的东西也必须能被理解,比如,光速是常量,如果一个奔跑的人(速度为V)向你抛来一个光速(c)的苹果,按常理苹果速度是V+c 的话,那么会出现什么情况呢?你将先看到飞来的苹果,后看到投掷的动作。
事实上对称性的最终定义是变化中的不变性------宇宙中只有光是不变的,神说我就是光,光速在空间运动的系统,没有一点在时间运动,所以没有时间的流逝。,所以他说我是从永远到永远的,我就是当下。
松清,http://blog.sina.com.cn/jacky3the3blessed 收起
这两个词,在谈 Manifold 之前,不妨先说说 Learning ,也就是 Machine Learning 。而说道 Machine Learning 而不提一下 Artificial Intelligence 的话似乎又显得有些不厚道。人说 AI 是一门最悲剧的学科,因为每当它的一个子领域发展得像模像样之后,就立马自立门户,从此和 AI “再无瓜葛”了,而 Machine Learning 大概要算是最新的一个典型吧。这就让人有点奇怪,比如说数学,分门别类总算是够多了吧?可以不管怎么分,大家兄弟姐妹也都还承认自己是叫“数学”的。那 AI 呢?我觉得这里有很大一部分是它自身定位的问题。
反正现在我是不太清楚 AI 是做什么的,不知道其他人到底清楚不清楚。Wikipedia 上说
Artificial intelligence (AI) is the intelligence of machines and the branch of computer science that aims to create it.可是这相当于一个 tautology ,因为到底什么又是 the intelligence of machines 呢?一开始的时候,大牛们都野心勃勃,而且好像也是信心满满,就好像曾经广泛认为“牛顿定理揭示了宇宙真理,科学剩下的事情只要按照公式来做计算就可以了”一样,大家可能觉得,不出几十年,人类就可以不用思考,交给 AI 来做了。不过我这里并不想再多说诸如什么是“思考”,什么是“智能”之类的以及随之而来的“图灵测试”之类的话题。我想说的是,到头来,AI 到底是什么,这还是一个问题,或者说,AI 在一开始定了一个过高的目标,几十年后,发现情况并不像当年那么乐观,却又有些下不了台了。
这个时候,AI 的一些旁枝或者子领域果断放下面子,丢掉了那个近乎玄幻的目标,逐渐发展成为“正常”的学科,所以也就不再好称为 AI 了。或者说现在的 AI 有两个意思,一个广义的 AI ,包括了所有相关的以及派生的领域,另一个则是狭义的或者经典的 AI ,专门指那些仍然在执着地追求着真正的“智能”的部分,或者说得不好听一点,就是剩下的部分。
Machine Learning 作为离家出走的典型,虽然名字里带了 Learning 一个词,让人乍一看觉得和 Intelligence 相比不过是换了个说法而已,然而事实上这里的 Learning 的意义要朴素得多。我们来看一看 Machine Learning 的典型的流程就知道了,其实有时候觉得和应用数学或者更通俗的数学建模有些类似,通常我们会有需要分析或者处理的数据,根据一些经验和一些假设,我们可以构建一个模型,这个模型会有一些参数(即使是非参数化方法,也是可以类似地看待的),根据数据来求解模型参数的过程,就叫做 Parameter Estimation ,或者 Model Fitting ,但是搞机器学习的人,通常把它叫做 Learning (或者,换一个角度,叫 Training)——因为根据数据归纳出一个有用的模型,这和我们人类“学习”的过程还是挺类似的吧。不过,如果抛开无聊的抠字眼游戏的话,我们可以看到,Machine Learning 已经抛弃了“智能”的高帽子,它的目的就是要解决具体的问题——而并不关心是否是通过一种“智能”的方式类解决的。
说到这里,其实我们构造模型就类似于写一个类,数据就是构造函数的参数,Learning 就是构造函数运行的过程,成功构造一个对象之后,我们就完成了学习。一些 Machine Learning 的问题到这一步就结束了,另一些情况还会使用得到的模型(对象)对后来的数据进行一些处理,通常会是 Inferencing 。到这个时候,又有些像统计里的东西了,所谓“统计推断”嘛。其实原本统计和机器学习研究的不少问题就是交叉在一起的,不过两派人从不同的角度来看待同样的问题。而且,也确实有 Statistical Learning 这么一个说法存在的,可以把他看成是 Machine Learning 的一个子领域(或者是一个分子或者甚至就是 Machine Learning 本身)。
到这里,如果你还没有因为不断地抠字眼而烦躁的话,我已经忍无可忍了。所以,我就假定你已经了解了什么叫 Learning ,或者是已经恶心到懒得去了解了。于是我们转入下一个话题:流形,也就是 Manifold 。不知道你有没有为我在本文开头放上的那个地球的图片感到困惑?这是因为球面是一个很典型的流形的例子,而地球就是一个很典型的“球面”啦(姑且当作球面好啦)。
有时候经常会在 paper 里看到“嵌入在高维空间中的低维流形”,不过高维的数据对于我们这些可怜的低维生物来说总是很难以想像,所以最直观的例子通常都会是嵌入在三维空间中的二维或者一维流行。比如说一块布,可以把它看成一个二维平面,这是一个二维的欧氏空间,现在我们(在三维)中把它扭一扭,它就变成了一个流形(当然,不扭的时候,它也是一个流形,欧氏空间是流形的一种特殊情况)。
所以,直观上来讲,一个流形好比是一个 d 维的空间,在一个 m 维的空间中 (m > d) 被扭曲之后的结果。需要注意的是,流形并不是一个“形状”,而是一个“空间”,如果你觉得“扭曲的空间”难以想象,那么请再回忆之前一块布的例子。如果我没弄错的话,广义相对论似乎就是把我们的时空当作一个四维流(空间三维加上时间一维)形来研究的,引力就是这个流形扭曲的结果。当然,这些都是直观上的概念,其实流形并不需要依靠嵌入在一个“外围空间”而存在,稍微正式一点来说,一个 d 维的流形就是一个在任意点出局部同胚于(简单地说,就是正逆映射都是光滑的一一映射)欧氏空间 。实际上,正是这种局部与欧氏空间的同胚给我们带来了很多好处,这使得我们在日常生活中许许多多的几何问题都可以使用简单的欧氏几何来解决,因为和地球的尺度比起来,我们的日常生活就算是一个很小的局部啦——我突然想起《七龙珠》里的那个界王住的那种私人小星球,走几步就要绕一圈的感觉,看来界王不仅要体力好(那上面重力似乎是地球的十倍),而且脑力也要好,初中学的必须是黎曼几何了!
那么,除了地球这种简单的例子,实际应用中的数据,怎么知道它是不是一个流形呢?于是不妨又回归直观的感觉。再从球面说起,如果我们事先不知道球面的存在,那么球面上的点,其实就是三维欧氏空间上的点,可以用一个三元组来表示其坐标。但是和空间中的普通点不一样的是,它们允许出现的位置受到了一定的限制,具体到球面,可以可以看一下它的参数方程:
可以看到,这些三维的坐标实际上是由两个变量 和 生成的,也可以说成是它的自由度是二,也正好对应了它是一个二维的流形。有了这样的感觉之后,再来看流形学习里经常用到的人脸的例子,就很自然了。下图是 Isomap 论文里的一个结果:
这里的图片来自同一张人脸(好吧,其实是人脸模型),每张图片是 64×64 的灰度图,如果把位图按照列(或行)拼起来,就可以得到一个 4096 维的向量,这样一来,每一张图片就可以看成是 4096 维欧氏空间中的一个点。很显然,并不是 4096 维空间中任意一个点都可以对应于一张人脸图片的,这就类似于球面的情形,我们可以假定所有可以是人脸的 4096 维向量实际上分布在一个 d 维 (d < 4096) 的子空间中。而特定到 Isomap 的人脸这个例子,实际上我们知道所有的 698 张图片是拍自同一个人脸(模型),不过是在不同的 pose 和光照下拍摄的,如果把 pose (上下和左右)当作两个自由度,而光照当作一个自由度,那么这些图片实际只有三个自由度,换句话说,存在一个类似于球面一样的参数方程(当然,解析式是没法写出来的),给定一组参数(也就是上下、左右的 pose 和光照这三个值),就可以生成出对应的 4096 维的坐标来。换句话说,这是一个嵌入在 4096 维欧氏空间中的一个 3 维流形。 实际上,上面的那张图就是 Isomap 将这个数据集从 4096 维映射到 3 维空间中,并显示了其中 2 维的结果,图中的小点就是每个人脸在这个二维空间中对应的坐标位置,其中一些标红圈的点被选出来,并在旁边画上了该点对应的原始图片,可以很直观地看出这两个维度正好对应了 pose 的两个自由度平滑变化的结果。 就我目前所知,把流形引入到机器学习领域来主要有两种用途:一是将原来在欧氏空间中适用的算法加以改造,使得它工作在流形上,直接或间接地对流形的结构和性质加以利用;二是直接分析流形的结构,并试图将其映射到一个欧氏空间中,再在得到的结果上运用以前适用于欧氏空间的算法来进行学习。 这里 Isomap 正巧是一个非常典型的例子,因为它实际上是通过“改造一种原本适用于欧氏空间的算法”,达到了“将流形映射到一个欧氏空间”的目的。 :) Isomap 所改造的这个方法叫做 Multidimensional Scaling (MDS) ,MDS 是一种降维方法,它的目的就是使得降维之后的点两两之间的距离尽量不变(也就是和在原是空间中对应的两个点之间的距离要差不多)。只是 MDS 是针对欧氏空间设计的,对于距离的计算也是使用欧氏距离来完成的。如果数据分布在一个流形上的话,欧氏距离就不适用了。
让我们再回到地球——这个在三维空间中的二维流形,假设我们要在三维空间中计算北极点和南极点的距离,这很容易,就是两点相连的线段的长度,可是,如果要在这个流形上算距离就不能这样子算了,我们总不能从北极打个洞钻到南极去吧?要沿着地球表面走才行,当然,如果我随便沿着什么路线走一遍,然后数出总共走了多少步作为距离,这是不成的,因为这样一来如果我沿着不同的路线走,岂不是会得到不同的距离值?总而言之,我们现在需要一个新的定义在地球表面(流形)上的距离度量,理论上来说,任意满足测度的 4 个条件的函数都可以被定义为距离,不过,为了和欧氏空间对应起来,这里选择一个直线距离的推广定义。
还记得初中学的“两点之间,线段最短”吗?现在,我们反过来说,把线段的概念推广一下,变成“两点之间最短的曲线是线段”,于是流形上的距离定义也就等同于欧氏空间了:流形上两个点之间的距离就是连接两个点的“线段”的长度。虽然只是置换了一个概念,但是现在两者统一起来了,不过,在流形上的线段大概就不一定是“直”的了(于是直线也变成不一定是“直”的了),通常又称作是“测地线”。对于球面这个简单的流形来说,任意一条线段必定是在一个“大圆”上的,于是球面上的直线其实都是一些大圆,也造成了球面这个流形上没有平行线等一系列尴尬的局面(任意两条直线均相交),如果你看过一些数学科普八卦类的书,应该会回忆起不少东西啦!
回到 Isomap ,它主要做了一件事情,就是把 MDS 中原始空间中距离的计算从欧氏距离换为了流形上的测地距离。当然,如果流形的结构事先不知道的话,这个距离是没法算的,于是 Isomap 通过将数据点连接起来构成一个邻接 Graph 来离散地近似原来的流形,而测地距离也相应地通过 Graph 上的最短路径来近似了。如下图所示:
这个东西叫做 Swiss Roll ,姑且把它看作一块卷起来的布好了。图中两个标黑圈的点,如果通过外围欧氏空间中的欧氏距离来计算的话,会是挨得很近的点,可是在流形上它们实际上是距离很远的点:红色的线是 Isomap 求出来的流形上的距离。可以想像,如果是原始的 MDS 的话,降维之后肯定会是很暴力地直接把它投影到二维空间中,完全无视流形结构,而 Isomap 则可以成功地将流形“展开”之后再做投影。
除了 Isomap 之外,Manifold Embedding 的算法还有很多很多,包括 Locally Linear Embedding 、Laplacian Eigenmaps 、Hessian Eigenmaps 、Local Tangent Space Alignment、Semidefinite Embedding (Maximum Variance Unfolding) 等等等等。哪个好哪个坏也不好说,它们都各有特点,而且也各自有不少变种。网上有一个 Matlab 的 demo ,给出了几种流行的 manifold embedding 算法在一些 synthetic manifold 上的结果和对比,可以有一个直观的认识。
另一方面是改造现有算法使其适合流形结构甚至专门针对流形的特点来设计新的算法,比较典型的是 graph regularized semi-supervised learning 。简单地说,在 supervised learning 中,我们只能利用有 label 的数据,而(通常都会有很多的)没有 label 的数据则白白浪费掉。在流形假设下,虽然这些数据没有 label ,但是仍然是可以有助于 Learn 出流形的结构的,而学出了流形结构之后实际上我们就是对原来的问题又多了一些认识,于是理所当然地期望能得到更好的结果喽。
当然,所有的这些都是基于同一个假设,那就是数据是分布在一个流形上的(部分算法可能会有稍微宽松一些的假设),然而 real world 的数据,究竟哪些是分别在流形上的呢?这个却是很难说。不过,除了典型的 face 和 hand written digit 之外,大家也有把基于流形的算法直接用在诸如 text 看起来好像也流形没有什么关系的数据上,效果似乎也还不错。
话说回来,虽然和实际应用结合起来是非常重要的一个问题,但是也并不是决定性的,特别是对于搞理论方面的人来说。我想,对于他们来说,其实也像是在做应用啦,不过是把数学里的东西应用到机器学习所研究的问题里来,而且其中关系错综复杂,图论、代数、拓扑、几何……仿佛是十八路诸侯齐聚一堂,所以让我总觉得要再花 500 年来恶补数学才行呀!
不过我表示可以理解其中存在的潜在的 happy 之处,就好比你玩游戏,先玩了《天地劫:神魔至尊传》,然后再玩《天地劫序章:幽城幻剑录》的时候,会发现里面的人物、剧情逐渐地联系起来,也许甚至只是在一个地方出现过的一个完全不起眼的配角,当你再在另一地方突然看到他是,一系列的线索瞬间被联系起来,全局的画面渐渐浮现,那种 happy 的感觉,大概就是所谓的“拨云见日”了吧!
所以呀,这些东西其实都是差不多的,有时候想想那些泰斗站在顶峰上“一览众山小”的感觉,那种“融会贯通”的感觉,真是让人各种羡慕呀!无奈就只好去爬爬老和山北高峰来体验体验了。
最后是总结:所谓 Machine Learning 里的 Learning ,就是在建立一个模型之后,通过给定数据来求解模型参数。而 Manifold Learning 就是在模型里包含了对数据的流形假设。嗯,还有什么?还有就是,我画的坐在楼兰古城城墙上的冰璃,一点都不像…… >_< 幽城迷不要砍我…… Update 2011.02.28: 根据留言里的信息,“流形”这个中文词取自文天祥的“天地有正气,杂然赋流形”,这个词第一次作为当前的数学意义使用是由北大数学系的一位老教授江泽涵老先生。老先生是我国代数拓扑学的开拓者。还是 caszgh 同学的导师的大学时代的老师
对称性
朱松清
科学的简单性-就是美,和对称性,在对称性的不断追求导致了物理学的一次次丰硕成果。
而是物理学的核心和主干——对称性。从牛顿到麦克斯韦、到狭义相对论、到广义相对论、再到亚原子结构,整个物理学围绕着对称性逐渐走向深入和统一
对称性在逻辑上分成两个方面——不变性和变换,前者是名词,后者是动词。就是说所谓对称性就是在一个有规则的操作、运算下保持其特征不变的一个概念。比如园,绕圆心怎么转其形状都不变,而正方形只有转90度时才保持几何不变。对称性是美。
从分类上说也有很多分法:空间上可分为一维线性的、二维平面的和三维立体的对称。从操作角度它可以分成平移、旋转、镜像以及一些复合类型。。
但还有很多对称性是不那么直观的,比如在物理学中,对称性涵义丰富,它有时候指空间的均质性(即空间对物理定律的无差别适用性,它对应着伽利略不变性、洛仑兹不变性和广义协变,);有时指分子运动的无差别性,这与我们常识不同,方向各异的分子不规则运动(比如气体,比如麻将中的13不靠,混乱的极至是秩序)被认为是具有高度对称性的,而磁铁那样有高度秩序有方向感的分子排列却被认为是不对称的(因为有了方向的偏爱);而在原子结构中,从海森堡开始,对称性又被拓展为粒子内部空间结构问题, 而在数学中情况变得又简单又复杂。简单是因为宇宙中所有的对称性都可以用一种叫“群论”的数学来描述;
物理学最早的对称性是伽利略对称,或伽利略变换只是空间坐标的变换,与时间无关,意味着在此基础上的牛顿定律通过它对任何不同运动状态的观察者而言是不变的。这种变换和不变性意味着物理定律对不同惯性系统的对称性。
但麦克斯韦把电和磁统一成一组方程后,问题出来了,光速可以从其方程里算出来,而且实验物理学家发现光速是个常量,与观测者的运动状态无关。通过光速不变,会导致推论出高速运动的时间膨胀,和空间收缩,甚至E=MC2。爱因斯坦甚至宣布世界的一切事物都是以光速在时空中运动。高速运动的系统里意味他在时间里的运动比静止系统的慢,因为他在时间里的运动有些转移到空间了,所以他的钟会变慢。进而推论假如系统在时间里的运动完全转移到空间来了,系统在空间的运动速度就达到最大速度。进而推论到以光速在空间运动的系统,没有一点在时间运动,因此光子不会老,从大爆炸出来的光子到今天依然一样,在光速下,没有时间的流逝。
这时需要引进洛仑兹变对称性,它的基本意思是这样的,一个物理定律对不同的惯性系都有不变的形式结构,同时在不同的惯性系看来光速是不变量。爱因斯坦用洛仑兹变换检验和改造了牛顿力学,使之成为洛仑兹不变的力学理论——狭义相对论。“所谓相对论,与其说是一种理论,不如说是对物理理论的一种很合理很基本很公理化的要求”,就是要求物理理论要满足洛仑兹不变性。爱因斯坦对上帝思想的直觉判断,他相信上帝的思想和美学极其简单,它不过就是要求上帝的旨意不能因时因地因人而异,于是这个简单得不能再简单的要求演绎出特别费解和深奥的理论。但再费解的东西也必须能被理解,比如,光速是常量,如果一个奔跑的人(速度为V)向你抛来一个光速(c)的苹果,按常理苹果速度是V+c 的话,那么会出现什么情况呢?你将先看到飞来的苹果,后看到投掷的动作。
狭义相对论与以前的物理学规律一样,都只适用于惯性系。但事实上却很难找到真正的惯性系,爱因斯坦有一个“愉快的思想旅程“,他发现在一个空间的人是区分不出他是以1G的加速度飞行,还是在地球上,这就是”等效原理“,加速度和引力等效!这样就可以用加速度来理解引力了。然后他发现了加速度飞行飞船上的光线弯曲,而光线总是按最近的距离传递,进而推论引力会导致空间弯曲,“质量导致时空弯曲,而弯曲的时空又决定物质的运动”。这是广义相对论的最简单文字表述了,虽然数学上表述和求证相当复杂。事实上他包含了及其深刻的对称性,广义坐标不变性。不同的加速度时空体系,测得其他体系的速度是不同的,但在本体系中的物理定律不变。我举个例子,一个以近似光速运动的粒子,在地球人看寿命是8秒,此后衰变,而在粒子自身的时钟里它自我感觉存活了2秒,在地球人看它奔跑了8倍光速的距离,在它自己看来,它只跑了2倍光速的距离。所以在洛仑兹变换下,同一个物理事件,用不同惯性系的时钟所测量出的运动距离、运动时间都不相同,但是同一个事件在不同惯性系看来不仅能推导相同的物理定律,而且能测量出相同的光速。
事实上对称性的最终定义是变化中的不变性------宇宙中只有光是不变的,神说我就是光,光速在空间运动的系统,没有一点在时间运动,所以没有时间的流逝。,所以他说我是从永远到永远的,我就是当下。
松清,http://blog.sina.com.cn/jacky3the3blessed 收起
物理学最早的对称性是伽利略对称,或伽利略变换只是空间坐标的变换,与时间无关,意味着在此基础上的牛顿定律通过它对任何不同运动状态的观察者而言是不变的。这种变换和不变性意味着物理定律对不同惯性系统的对称性。
但麦克斯韦把电和磁统一成一组方程后,问题出来了,光速可以从其方程里算出来,而且实验物理学家发现光速是个常量,与观测者的运动状态无关。通过光速不变,会导致推论出高速运动的时间膨胀,和空间收缩,甚至E=MC2。爱因斯坦甚至宣布世界的一切事物都是以光速在时空中运动。高速运动的系统里意味他在时间里的运动比静止系统的慢,因为他在时间里的运动有些转移到空间了,所以他的钟会变慢。进而推论假如系统在时间里的运动完全转移到空间来了,系统在空间的运动速度就达到最大速度。进而推论到以光速在空间运动的系统,没有一点在时间运动,因此光子不会老,从大爆炸出来的光子到今天依然一样,在光速下,没有时间的流逝。
这时需要引进洛仑兹变对称性,它的基本意思是这样的,一个物理定律对不同的惯性系都有不变的形式结构,同时在不同的惯性系看来光速是不变量。爱因斯坦用洛仑兹变换检验和改造了牛顿力学,使之成为洛仑兹不变的力学理论——狭义相对论。“所谓相对论,与其说是一种理论,不如说是对物理理论的一种很合理很基本很公理化的要求”,就是要求物理理论要满足洛仑兹不变性。爱因斯坦对上帝思想的直觉判断,他相信上帝的思想和美学极其简单,它不过就是要求上帝的旨意不能因时因地因人而异,于是这个简单得不能再简单的要求演绎出特别费解和深奥的理论。但再费解的东西也必须能被理解,比如,光速是常量,如果一个奔跑的人(速度为V)向你抛来一个光速(c)的苹果,按常理苹果速度是V+c 的话,那么会出现什么情况呢?你将先看到飞来的苹果,后看到投掷的动作。
狭义相对论与以前的物理学规律一样,都只适用于惯性系。但事实上却很难找到真正的惯性系,爱因斯坦有一个“愉快的思想旅程“,他发现在一个空间的人是区分不出他是以1G的加速度飞行,还是在地球上,这就是”等效原理“,---加速度和引力是等效的----这样就可以用加速度来理解引力了。然后他发现了在加速度飞行飞船上的射出的光线是弯曲的,而光线总是按最近的距离传递,进而推论引力会导致空间弯曲,“质量导致时空弯曲,而弯曲的时空又决定物质的运动”“Matter decides times and space, time and space decides the movement of matter”。这是广义相对论的最简单文字表述了,虽然数学上表述和求证相当复杂。事实上他包含了及其深刻的对称性,广义坐标不变性。不同的加速度时空体系,测得其他体系的速度是不同的,但在本体系中的物理定律不变。我举个例子,一个以近似光速运动的粒子,在地球人看寿命是8秒,此后衰变,而在粒子自身的时钟里它自我感觉存活了2秒,在地球人看它奔跑了8倍光速的距离,在它自己看来,它只跑了2倍光速的距离。所以在洛仑兹变换下,同一个物理事件,用不同惯性系的时钟所测量出的运动距离、运动时间都不相同,但是同一个事件在不同惯性系看来不仅能推导相同的物理定律,而且能测量出相同的光速。
但麦克斯韦把电和磁统一成一组方程后,问题出来了,光速可以从其方程里算出来,而且实验物理学家发现光速是个常量,与观测者的运动状态无关。通过光速不变,会导致推论出高速运动的时间膨胀,和空间收缩,甚至E=MC2。爱因斯坦甚至宣布世界的一切事物都是以光速在时空中运动。高速运动的系统里意味他在时间里的运动比静止系统的慢,因为他在时间里的运动有些转移到空间了,所以他的钟会变慢。进而推论假如系统在时间里的运动完全转移到空间来了,系统在空间的运动速度就达到最大速度。进而推论到以光速在空间运动的系统,没有一点在时间运动,因此光子不会老,从大爆炸出来的光子到今天依然一样,在光速下,没有时间的流逝。
这时需要引进洛仑兹变对称性,它的基本意思是这样的,一个物理定律对不同的惯性系都有不变的形式结构,同时在不同的惯性系看来光速是不变量。爱因斯坦用洛仑兹变换检验和改造了牛顿力学,使之成为洛仑兹不变的力学理论——狭义相对论。“所谓相对论,与其说是一种理论,不如说是对物理理论的一种很合理很基本很公理化的要求”,就是要求物理理论要满足洛仑兹不变性。爱因斯坦对上帝思想的直觉判断,他相信上帝的思想和美学极其简单,它不过就是要求上帝的旨意不能因时因地因人而异,于是这个简单得不能再简单的要求演绎出特别费解和深奥的理论。但再费解的东西也必须能被理解,比如,光速是常量,如果一个奔跑的人(速度为V)向你抛来一个光速(c)的苹果,按常理苹果速度是V+c 的话,那么会出现什么情况呢?你将先看到飞来的苹果,后看到投掷的动作。
狭义相对论与以前的物理学规律一样,都只适用于惯性系。但事实上却很难找到真正的惯性系,爱因斯坦有一个“愉快的思想旅程“,他发现在一个空间的人是区分不出他是以1G的加速度飞行,还是在地球上,这就是”等效原理“,---加速度和引力是等效的----这样就可以用加速度来理解引力了。然后他发现了在加速度飞行飞船上的射出的光线是弯曲的,而光线总是按最近的距离传递,进而推论引力会导致空间弯曲,“质量导致时空弯曲,而弯曲的时空又决定物质的运动”“Matter decides times and space, time and space decides the movement of matter”。这是广义相对论的最简单文字表述了,虽然数学上表述和求证相当复杂。事实上他包含了及其深刻的对称性,广义坐标不变性。不同的加速度时空体系,测得其他体系的速度是不同的,但在本体系中的物理定律不变。我举个例子,一个以近似光速运动的粒子,在地球人看寿命是8秒,此后衰变,而在粒子自身的时钟里它自我感觉存活了2秒,在地球人看它奔跑了8倍光速的距离,在它自己看来,它只跑了2倍光速的距离。所以在洛仑兹变换下,同一个物理事件,用不同惯性系的时钟所测量出的运动距离、运动时间都不相同,但是同一个事件在不同惯性系看来不仅能推导相同的物理定律,而且能测量出相同的光速。
No comments:
Post a Comment