Sunday, May 3, 2015

开集 怎么推广到二维空间,或者更高维空间, 比如一个空间信号(Vision 中的 image)或者时间信号,它们的 domain 中的值是不可数无限大的 (uncountably infinite),不要说表示为有限维向量,即使表达为无限序列也是不可能的。在这种情况下, 一般在有限域内,按照一定顺序每隔一定距离取一个点来代表其周围的点,从而形成有限维的表达。 这就是信号在时域或空域的量化。 这样做不可避免要丢失信息。但是,由于小邻域内信号的高度相关,信息丢失的程度往往并不显著。 而且,从理论上说,这相当于在频域中的低通过率。对于有限能量的连续信号,不可能在无限高的频 域中依然保持足够的强度,只要采样密度足够,丢失的东西可以任意的少

這是 Google 對 http://wenku.baidu.com/view/44c7d4bfc77da26925c5b004.html 的快取。 這是該網頁於 2015年3月28日 16:27:03 GMT 顯示時的快照。 在此期間,目前網頁可能已經變更。 瞭解更多資訊
提示:如要在這個網頁上快速尋找您所搜尋的字詞,請按下 Ctrl+F 鍵或 ⌘-F 鍵 (Mac),然後使用尋找列進行搜尋。

 
与机器学习和计算机视觉相关的数学_百度文库

与机器学习和计算机视觉相关的数学_理学_高等教育_教育专区

暂无评价|0人阅读|0次下载|举报文档
与机器学习和计算机视觉相关的数学_理学_高等教育_教育专区。与机器学习和计算机视觉相关的数学知识(网上搜集整理的)。

与机器学习和计算机视觉相关的数学 1. 线性代数 (Linear Algebra): : 我想国内的大学生都会学过这门课程,但是,未必每一位老师都能贯彻它的精要。这门学科 对于 Learning 是必备的基础,对它的透彻掌握是必不可少的。我在科大一年级的时候就学 习了这门课,后来到了香港后,又重新把线性代数读了一遍,所读的是 Introduction to Linear Algebra (3rd Ed.) by Gilbert Strang. 这本书是 MIT 的线性代数课使用的教材,也是被很多其它大学选用的经典教材。它的难度 适中, 讲解清晰, 重要的是对许多核心的概念讨论得比较透彻。 我个人觉得, 学习线性代数, 最重要的不是去熟练矩阵运算和解方程的方法——这些在实际工作中 MATLAB 可以代劳, 关键的是要深入理解几个基础而又重要的概念:子空间 子空间(Subspace),正交 子空间 ,正交(Orthogonality), , 特征值和特征向量(Eigenvalues and eigenvectors),和线性变换 特征值和特征向量 ,和线性变换(Linear transform)。从我的 角度看来,一本线代教科书的质量,就在于它能否给这些根本概念以足够的重视,能否把它 们的联系讲清楚。Strang 的这本书在这方面是做得很好的。 而且,这本书有个得天独厚的优势。书的作者长期在 MIT 讲授线性代数课(18.06),课程的 video 在 MIT 的 Open courseware 网站上有提供。有时间的朋友可以一边看着名师授课的录 像,一边对照课本学习或者复习。 http://ocw.mit.edu/OcwWeb/Mathematics/18-06Spring-2005/CourseHome/index.htm 2. 概率和统计 (Probability and Statistics): 概率论和统计的入门教科书很多, 我目前也没有特别的推荐。 我在这里想介绍的是一本关于 多元统计的基础教科书: 多元统计 Applied Multivariate Statistical Analysis (5th Ed.) by Richard A. Johnson and Dean W. Wichern 这本书是我在刚接触向量统计的时候用于学习的,我在香港时做研究的基础就是从此打下 了。实验室的一些同学也借用这本书学习向量统计 向量统计。这本书没有特别追求数学上的深度,而 向量统计 是以通俗易懂的方式讲述主要的基本概念,读起来很舒服,内容也很实用。对于 Linear regression, factor analysis, principal component analysis (PCA), and canonical component analysis (CCA)这些 Learning 中的基本方法也展开了初步的论述。 之后就可以进一步深入学习贝叶斯统计和 Graphical models。一本理想的书是 贝叶斯统计和 Introduction to Graphical Models (draft version). by M. Jordan and C. Bishop. 我不知道这本书是不是已经出版了(不要和 Learning in Graphical Models 混淆,那是个论文 集,不适合初学) 。这本书从基本的贝叶斯统计模型出发一直深入到复杂的统计网络的估计 和推断, 深入浅出, statistical learning 的许多重要方面都在此书有清楚论述和详细讲解。 MIT 内部可以 access,至于外面,好像也是有电子版的。 3. 分析 (Analysis): : 我想大家基本都在大学就学过微积分或者数学分析, 微积分或者数学分析, 这个 微积分或者数学分析 深度和广度则随各个学校而异了。 深度和广度 领域是很多学科的基础,值得推荐的教科书莫过于 Principles of Mathematical Analysis, by Walter Rudin 有点老,但是绝对经典,深入透彻。缺点就是比较艰深——这是 Rudin 的书的一贯风格,适 合于有一定基础后回头去看。 在分析这个方向,接下来就是泛函分析 泛函分析(Functional Analysis)。 泛函分析 Introductory Functional Analysis with Applications, by Erwin Kreyszig. 适合作为泛函的基础教材, 容易切入而不失全面。 我特别喜欢它对于谱论和算子理论 谱论和算子理论的特别 谱论和算子理论 关注, 这对于做 learning 的研究是特别重要的。 Rudin 也有一本关于 functional analysis 的书, 那本书在数学上可能更为深刻,但是不易于上手,所讲内容和 learning 的切合度不如此书。 在分析这个方向,还有一个重要的学科是测度理论 测度理论(Measure theory),但是我看过的书里面 测度理论 目前还没有感觉有特别值得介绍的。 4. 拓扑 (Topology): : 在我读过的基本拓扑书各有特色,但是综合而言,我最推崇: Topology (2nd Ed.) by James Munkres 这本书是 Munkres 教授长期执教 MIT 拓扑课的心血所凝。 对于一般拓扑学(General topology) 有全面介绍,而对于代数拓扑 代数拓扑(Algebraic topology)也有适度的探讨。此书不需要特别的数学 代数拓扑 知 识就 可以开 始学 习,由 浅入 深,从 最基 本的 集 合 论 概 念 (很多书 不屑 讲这 个) 到 Nagata-Smirnov Theorem 和 Tychonoff theorem 等较深的定理 (很多书避开了这个) 都覆盖 了。讲述方式思想性很强 思想性很强,对于很多定理,除了给出证明过程和引导你思考其背后的原理脉 思想性很强 络,很多令人赞叹的亮点——我常读得忘却饥饿,不愿释手。很多习题很有水平。 5. 流形理论 (Manifold theory): : 对于拓扑和分析有一定把握时,方可开始学习流形理论,否则所学只能流于浮浅。我所使 拓扑和分析有一定把握时 方可开始学习流形理论,否则所学只能流于浮浅 拓扑和分析 用的书是 Introduction to Smooth Manifolds. by John M. Lee 虽然书名有 introduction 这个单词,但是实际上此书涉入很深,除了讲授了基本的 manifold, tangent space, bundle, sub-manifold 等,还探讨了诸如纲理论 纲理论(Category theory),德拉姆上 德拉姆上 纲理论 同调(De Rham cohomology)和积分流形 积分流形等一些比较高级的专题。对于李群和李代数 李群和李代数也有相 同调 积分流形 李群和李代数 当多的讨论。行文通俗而又不失严谨,不过对某些记号方式需要熟悉一下。 虽然李群论是建基于平滑流形的概念之 李群论是建基于平滑流形的概念之上,不过,也可能从矩阵出发直接学习李群和李代 矩阵出发直接学习 李群论是建基于平滑流形的概念之 矩阵出发直接学习李群和李代 而且, 对于一个问题从 数——这种方法对于急需使用李群论解决问题的朋友可能更加实用。 不同角度看待也利于加深理解。下面一本书就是这个方向的典范: Lie Groups, Lie Algebras, and Representations: An Elementary Introduction. by Brian C. Hall 此书从开始即从矩阵切入 从代数而非几何角度引入矩阵李群的概念。 矩阵切入, 并通过定义运算的方 矩阵切入 定义运算的方 式建立 exponential mapping,并就此引入李代数 ,并就此引入李代数。这种方式比起传统的通过“左不变向量场 左不变向量场 (Left-invariant vector field)“的方式定义李代数更容易为人所接受,也更容易揭示李代数的 李代数的 意义。最后,也有专门的论述把这种新的定义方式和传统方式联系起来。 意义 ———————————————————————————— 无论是研究 Vision, Learning 还是其它别的学科,数学终究是根基所在 学好数学是做好研 数学终究是根基所在。学好数学是做好研 数学终究是根基所在 究的基石。学好数学的关键归根结底是自己的努力,但是选择一本好的书还是大有益处的。 究的基石 学好数学的关键归根结底是自己的努力 学好数学的关键归根结底是自己的努力 不同的人有不同的知识背景,思维习惯和研究方向,因此书的选择也因人而异,只求适合自 己,不必强求一致。上面的书仅仅是从我个人角度的出发介绍的,我的阅读经历实在非常有 限,很可能还有比它们更好的书(不妨也告知我一声,先说声谢谢了) 。 拓扑:游走于直观与抽象之间 近日来, 抽空再读了一遍点集拓扑 点集拓扑(Point Set Topology), 这是我第三次重新学习这个理论了。 点集拓扑 我看电视剧和小说,极少能有兴致看第二遍,但是,对于数学,每看一次都有新的启发和收 对于数学, 对于数学 获。 代数,分析,和拓扑 现代数学的三大柱石 代数,分析,和拓扑,被称为是现代数学的三大柱石 现代数学的三大柱石。最初读拓扑,是在两三年前,由于学 习流形理论的需要。可是,随着知识的积累,发现它是很多理论的根基。可以说,没有拓扑, 就没有现代意义的分析与几何。 我们在各种数学分支中接触到的最基本的概念, 比如, 极限, 极限, 连续,距离(度量) 边界,路径,在现代数学中,都源于拓扑 连续,距离(度量) 边界,路径 ,边界 , 源于拓扑。 源于拓扑 拓扑学是一门非常奇妙的学科, 它把最直观的现象和最抽象的概念联系在一起了。 拓扑描述 的是普遍使用的概念(比如开集,闭集,连续) 开集,闭集,连续 ,我们对这些概念习以为常,理所当然地使 开集 用着, 可是, 真要定义它, 则需要对它们本质的最深刻的洞察 数学家们经过长时间的努力, 本质的最深刻的洞察。 本质的最深刻的洞察 得到了这些概念的现代定义。 这里面很多第一眼看上去, 会感觉惊奇——怎么会定义成这个 样子。 首先是开集。在学习初等数学时,我们都学习开区间 (a, b)。可是,这只是在一条线上的, 首先是开集 怎么推广到二维空间,或者更高维空间,或者别的形体上呢?最直观的想法,就是“一个不 一个不 包含边界的集合”。可是,问题来了,给一个集合,何谓“边界”?在拓扑学里面,开集(Open 包含边界的集合 Set)是最根本的概念,它是定义在集合运算的基础上的。它要求开集符合这样的条件:开集 开集 的任意并集和有限交集仍为开集。 任意并集和有限交集仍为开集 仍为开集 我最初的时候,对于这样的定义方式,确实百思不解。不过,读下去,看了和做了很多证明 后,发现,这样的定义一个很重要的意义 很重要的意义在于:它保证了开集中每个点都有一个邻域包含 很重要的意义 保证了开集中每个点都有一个邻域包含 在这个集合内——所有点都和外界(补集)保持距离。这样的理解应该比使用集合运算的 所有点都和外界(补集)保持距离 在这个集合内 所有点都和外界 定义有更明晰的几何意义。但是,直观的东西不容易直接形成严谨的定义,使用集合运算则 更为严格。而集合运算定义中,任意并集的封闭性 任意并集的封闭性是对这个几何特点的内在保证 几何特点的内在保证。 任意并集的封闭性 几何特点的内在保证 另外一个例子就是“连续函数 连续函数”(Continuous Function)。在学微积分时,一个耳熟能详的定义 连续函数 是“对任意的 epsilon > 0,存在 delta > 0,使得。。 。。”,背后最直观的意思就是“足够近的点 足够近的点 保证映射到任意小的范围内”。可是,epsilon, delta 都依赖于实空间,不在实空间的映射又怎 保证映射到任意小的范围内 么办呢?拓扑的定义是“如果一个映射的值域中任何开集的原象都是开集,那么它连续。” 如果一个映射的值域中任何开集的原象都是开集,那么它连续 如果一个映射的值域中任何开集的原象都是开集 这里就没有 epsilon 什么事了。“开集的原象是开集” 这里的关键在于, 在拓扑学中, 开集的最重要意义就是要传递“邻域 邻域”的意思——开集本身就 邻域 开集本身就 是所含点的邻域。这样连续定义成这样就顺理成章了。稍微把说法调节一下,上面的定义就 是所含点的邻域 变成了“对于 f(x)的任意邻域 U,都有 x 的一个邻域 V,使得 V 里面的点都映射到 U 中。” 对于 的任意邻域 , , 这里面, 我们可以感受到为什么开集在拓扑学中有根本性的意义。 既然开集传达 邻域 的意 集传达“邻域 集传达 邻域”的意 最重要的作用就是要表达哪些点靠得比较近 给出一个拓扑结构,就是要指 要表达哪些点靠得比较近。给出一个拓扑结构 思,那么,它最重要的作用 最重要的作用 要表达哪些点靠得比较近 给出一个拓扑结构, 出哪些是开集,从而指出哪些点靠得比较近,这样就形成了一个聚集结构 这就是拓扑。 出哪些是开集,从而指出哪些点靠得比较近,这样就形成了一个聚集结构——这就是拓扑 这就是拓扑 可是这也可以通过距离来描述,为什么要用开集呢,反而不直观了。某种意义上说,拓扑是 某种意义上说, 某种意义上说 “定性 的,距离度量是 定量 的。随着连续变形,距离会不断变化,但是靠近的点还是靠 定性”的 距离度量是“定量 定量”的 随着连续变形,距离会不断变化,但是靠近的点还是靠 定性 因此本身固有的拓扑特性不会改变。 近, 因此本身固有的拓扑特性不会改变 拓扑学研究的就是这种本质特性——连续变化中的 不变性。 在拓扑的基本概念中,最令人费解的,莫过于“紧性 紧性”(Compactness)。它描述一个空间或者 紧性 如果一个集合的任意开覆盖都有有限子覆盖, 如果一个集合的任意开覆盖都有有限子覆盖 一个集合“紧不紧”。正式的定义是“如果一个集合的任意开覆盖都有有限子覆盖,那么它是 紧的”。乍一看,实在有点莫名其妙。它究竟想描述一个什么东西呢?和“紧”这个形容词又 紧的 怎么扯上关系呢? 一个直观 直观一点的理解,几个集合是 紧”的,就是说,无限个点撒进去,不可能充分散开 几个集合是“紧 的 就是说,无限个点撒进去,不可能充分散开。 直观 几个集合是 无论邻域多么小,必然有一些邻域里面有无限个点。上面关于 compactness 的这个定义的玄 机就在有限和无限的转换中。一个紧的集合,被无限多的小邻域覆盖着,但是,总能找到其 中的有限个就能盖全。 那么, 后果是什么呢?无限个点撒进去, 无限个点撒进去, 总有一个邻域包着无数个点。 无限个点撒进去 总有一个邻域包着无数个点。 邻域们再怎么小都是这样——这就保证了无限序列中存在极限点。 Compact 这个概念虽然有点不那么直观,可是在分析中有着无比重要的作用 在分析中有着无比重要的作用。因为它关系 关系 在分析中有着无比重要的作用 到极限的存在性——这是数学分析的基础。了解泛函分析的朋友都知道,序列是否收敛 序列是否收敛,很 到极限的存在性 序列是否收敛 多时候就看它了。微积分中,一个重要的定理——有界数列必然包含收敛子列 有界数列必然包含收敛子列,就是根源于 有界数列必然包含收敛子列 此。 在学习拓扑,或者其它现代数学理论之前,我们的数学一直都在有限维欧氏空间之中,那是 一个完美的世界,具有一切良好的属性,Hausdorff, Locally compact, Simply connected, , Completed,还有一套线性代数结构 套线性代数结构,还有良好定义的度量,范数,与内积 度量, 套线性代数结构 度量 范数,与内积。可是,随着研 究的加深, 终究还是要走出这个圈子。 这个时候, 本来理所当然的东西, 变得不那么必然了。 两个点必然能分开?你要证明空间是 Hausdorff 的。 有界数列必然存在极限点?这只在 locally compact 的空间如此。 一个连续体内任意两点必然有路径连接?这可未必。 一切看上去有悖常理,而又确实存在。从线性代数 一般的群 线性代数到一般的群 有限维到无限维 线性代数 一般的群,从有限维 无限维 有限维 无限维,从度量 度量 空间到拓扑空间 空间 拓扑空间,整个认识都需要重新清理。而且,这些绝非仅是数学家的概念游戏,因为 拓扑空间 我们的世界不是有限维向量能充分表达的。当我们研究一些不是向量能表达的东西的时候, 度量,代数,以及分析的概念,都要重新建立,而起点就在拓扑。 起点就在拓扑 起点就在拓扑 Learning 中的代数结构 代数结构的建立 代数结构 Learning 是一个融会多种数学于一体的领域。说起与此有关的数学学科,我们可能会迅速联想到线性 代数以及建立在向量空间基础上的统计模型——事实上,主流的论文中确实在很大程度上基于它们。 R^n (n-维实向量空间) 是我们在 paper 中见到最多的空间,它确实非常重要和实用,但是,仅仅依靠 它来描述我们的世界并不足够。事实上,数学家们给我们提供了丰富得多的工具。 “空间”(space),这是一个很有意思的名词,几乎出现在所有的数学分支的基础定义之中。归纳起来, 所谓空间就是指一个集合以及在上面定义的某种数学结构。关于这个数学结构的定义或者公理,就成 为这个数学分支的基础,一切由此而展开。 还是从我们最熟悉的空间——R^n 说起吧。大家平常使用这个空间的时候,除了线性运算,其实还用 到了别的数学结构,包括度量结构和内积结构。 第一,它是一个拓扑空间 拓扑空间(Topological space)。而且从拓扑学的角度看,具有非常优良的性质 非常优良的性质: 拓扑空间 非常优良的性质 Normal (implying Hausdorff and Regular), Locally Compact, Paracompact, with Countable basis, Simply connected (implying connected and path connected), Metrizable. 第二,它是一个度量空间 度量空间(Metric space)。我们可以计算上面任意两点的距离 计算上面任意两点的距离。 度量空间 计算上面任意两点的距离 第三,它是一个有限维向量空间 有限维向量空间(Finite dimensional space)。因此,我们可以对里面的元素进行 有限维向量空间 代数运算(加法和数乘) ,我们还可以赋予它一组有限的基,从而可以用有限维坐标表达每个元素。 第四,基于度量结构和线性运算结构,可以建立起分析 分析(Analysis)体系 体系。我们可以对连续函数进 分析 体系 行微分,积分,建立和求解微分方程,以及进行傅立叶变换和小波分析。 第五,它是一个希尔伯特空间 希尔伯特空间(也就是完备的内积空间 完备的内积空间)(Hilbert space, Complete inner product 希尔伯特空间 完备的内积空间 space)。它有一套很方便计算的内积(inner product)结构——这个空间的度量结构其实就是从其内积结 构诱导出来。 更重要的, 它是完备的(Complete)——代表任何一个柯西序列(Cauchy sequence)都有极限 ——很多人有意无意中其实用到了这个特性,不过习惯性地认为是理所当然了。 第六, 它上面的线性映射构成的算子空间 线性映射构成的算子空间仍旧是有限维 有限维的——一个非常重要的好处就是, 线性映射构成的算子空间 有限维 所有的 线性映射都可以用矩阵唯一表示。特别的,因为它是有限维完备空间,它的泛函空间和它本身是同构 线性映射都可以用矩阵唯一表示 的,也是 R^n。因而,它们的谱结构 谱结构,也就可以通过矩阵的特征值和特征向量获得 矩阵的特征值和特征向量获得。 谱结构 矩阵的特征值和特征向量获得 第七,它是一个测度空间 测度空间——可以计算子集的大小(面积 体积) 可以计算子集的大小 体积) 测度空间 可以计算子集的大小(面积/体积 。正因为此,我们才可能在上面 建立概率分布 概率分布(distribution)——这是我们接触的绝大多数连续统计模型 绝大多数连续统计模型的基础。 概率分布 绝大多数连续统计模型 我们可以看到,这是一个非常完美的空间,为我们的应用在数学上提供了一切的方便,在上面,我们 可以理所当然地认为它具有我们希望的各种良好性质,而无须特别的证明;我们可以直接使用它的各 种运算结构,而不需要从头建立;而且很多本来不一样的概念在这里变成等价的了,我们因此不再需 要辨明它们的区别。 以此为界,Learning 的主要工作分成两个大的范畴: 1. 2. 建立一种表达形式,让它处于上面讨论的 R^n 空间里面。 获得了有限维向量表达后,建立各种代数算法或者统计模型进行分析和处理。 这里只讨论第一个范畴。先看看,目前用得比较广泛的一些方法: 1. 直接基于原始数据建立表达。 一幅图片, 一段语音, 直接基于原始数据建立表达 我们关心的最终目标是一个个现实世界中的对象: 一篇文章,一条交易记录,等等。这些东西大部分本身没有附着一个数值向量的。为了构造一个向量 表达, 我们可以把传感器中记录的数值, 或者别的什么方式收集的数值数据按照一定的顺序罗列出来, 就形成一个向量了。如果有 n 个数字,就认为它们在 R^n 里面。 不过,这在数学上有一点小问题,在大部分情况下,根据数据产生的物理原理,这些向量的值域并不 能充满整个空间。比如图像的像素值一般是正值,而且在一个有界闭集之中。这带来的问题是,对它 们进行线性运算很可能得到的结果会溢出正常的范围——在大部分 paper 中,可能只是采用某些 heuristics 的手段进行简单处理,或者根本不管,很少见到在数学上对此进行深入探讨的——不过如果 能解决实际问题,这也是无可厚非的,毕竟不是所有的工作都需要像纯数学那样追求严谨。 2. 量化(quantization)。这是在处理连续信号时被广泛采用的方式。只是习以为常,一般不提名字而已。 量化 比如一个空间信号(Vision 中的 image)或者时间信号,它们的 domain 中的值是不可数无限大的 (uncountably infinite),不要说表示为有限维向量,即使表达为无限序列也是不可能的。在这种情况下, 一般在有限域内,按照一定顺序每隔一定距离取一个点来代表其周围的点,从而形成有限维的表达。 这就是信号在时域或空域的量化。 这样做不可避免要丢失信息。但是,由于小邻域内信号的高度相关,信息丢失的程度往往并不显著。 而且,从理论上说,这相当于在频域中的低通过率。对于有限能量的连续信号,不可能在无限高的频 域中依然保持足够的强度,只要采样密度足够,丢失的东西可以任意的少。 除了表示信号,对于几何形体的表达也经常使用量化,比如表示 curve 和 surface。 3. 找出有限个数充分表达一个对象也许不是最困难的。 一般来说, 找出有限个数充分表达一个对象也许不是最困难的 不过,在其上面建立数学结构却未必了。 我们要对其进行处理,首先需要一个拓扑结构用以描述空间上的点是如何联系在一起。直接建立拓扑 结构在数学上往往非常困难,也未必实用。因此,绝大部分工作采取的方式是首先建立度量结构。一 个度量空间,其度量会自然地诱导出一个拓扑结构——不过,很多情况下我们似乎会无视它的存在。 最简单的情况,就是使用原始向量表达的欧氏距离(Euclidean distance)作为 metric。不过,由于原始表 达数值的不同特性,这种方式效果一般不是特别好,未必能有效表达实际对象的相似性(或者不相似 性) 。因此,很多工作会有再此基础上进行度量的二次建立。方式是多种多样的,一种是寻求一个映 射,把原空间的元素变换到一个新的空间,在那里欧氏距离变得更加合适。这个映射发挥的作用包括 对信息进行筛选,整合,对某些部分进行加强或者抑制。这就是大部分关于 feature selection,feature extraction, 或者 subspace learning 的文章所要做的。 另外一种方式, 就是直接调节距离的计算方式 (有 些文章称之为 metric learning) 。 这两种方式未必是不同的。 如果映射是单射, 那么它相当于在原空间建立了一个不同的度量。 反过来, 通过改变距离计算方式建立的度量在特定的条件下对应于某种映射。 4. 大家可能注意到,上面提到的度量建立方法,比如欧氏距离,它需要对元素进行代数运算。对于普通 度量建立方法,比如欧氏距离,它需要对元素进行代数运算 度量建立方法 的向量空间,线性运算是天然赋予的,我们无须专门建立,所以可以直接进行度量的构造——这也是 大部分工作的基础。可是,有些事物其原始表达不是一个 n-tuple,它可能是一个 set,一个 graph,或 者别的什么特别的 object。怎么建立代数运算呢? 一种方法是直接建立。就是给这些东西定义自己的加法和数乘。这往往不是那么直接(能很容易建立 的线性运算结构早已经被建立好并广泛应用了) ,可能需要涉及很深的数学知识,并且要有对问题本 身的深入了解和数学上的洞察力。不过,一个新的代数结构一旦建立起来,其它的数学结构,包括拓 扑,度量,分析,以及内积结构也随之能被自然地诱导出来,我们也就具有了对这个对象空间进行各 种数学运算和操作的基础。加法和数乘看上去简单,但是如果我们对于本来不知道如何进行加法和数 乘的空间建立了这两样东西,其理论上的贡献是非常大的。 (一个小问题:大家常用各种 graphical model,但是,每次这些 model 都是分别 formulate,然后推导 出 estimation 和 evaluation 的步骤方法。是否可能对"the space of graphical model"或者它的某个特定子 集建立某种代数结构呢?(不一定是线性空间,比如群,环,广群, etc)从而使得它们在代数意义 上统一起来,而相应的 estimation 或者 evaluation 也可以用过代数运算 derive。这不是我的研究范围, 也超出了我目前的能力和知识水平,只是我相信它在理论上的重要意义,留作一个远景的问题。事实 上,数学中确实有一个分支叫做 Algebraic statistics 可能在探讨类似的问题,不过我现在对此了解非 常有限。 ) 5. 回到我们的正题,除了直接建立运算定义 直接建立运算定义,另外一种方式就是嵌入 嵌入(embedding)到某个向量空间 到某个向量空间,从 直接建立运算定义 嵌入 到某个向量空间 而继承其运算结构为我所用。当然这种嵌入 嵌入也不是乱来,它需要保持原来这些对象的某种关系 需要保持原来这些对象的某种关系。最常 嵌入 需要保持原来这些对象的某种关系 见的就是保距嵌入 保距嵌入(isometric embedding),我们首先 首先建立度量结构 绕过向量表达,直接对两个对象 度量结构(绕过向量表达 保距嵌入 首先 度量结构 绕过向量表达, 的距离通过某种方法进行计算) 然后 然后把这个空间嵌入到目标空间 空间嵌入到目标空间,通常是有限维向量空间,要求保 有限维向量空间, 的距离通过某种方法进行计算 ,然后 空间嵌入到目标空间 有限维向量空间 持度量不变。 持度量不变。 “嵌入 是一种在数学上应用广泛的手段, 主要目标 嵌入” 其主要目标 主要目标就是通过嵌入到一个属性良好, 通过嵌入到一个属性良好, 结构丰富的空间, 嵌入 通过嵌入到一个属性良好 结构丰富的空间, 从而利用其某种结构或者运算体系。在拓扑学中,嵌入到 metric space 是对某个拓扑空间建立度量的 嵌入到 从而利用其某种结构或者运算体系 对某个拓扑空间建立度量的 重要手段。而在这里,我们是已有度量的情况下,通过嵌入获取线性运算的结构。除此以来,还有一 重要手段 种就是前些年比较热的 manifold embedding,这个是通过保持局部结构的嵌入,获取全局结构,后面 还会提到。 6. 接下来的一个重要的代数结构,就是内积 内积(inner product)结构 结构。内积结构一旦建立,会直接诱导出一 内积 结构 种性质良好的度量,就是范数(norm),并且进而诱导出拓扑结构。一般来说,内积需要建立在线性空 间的基础上,否则连一个二元运算是否是内积都无法验证。不过,kernel 理论指出,对于一个空间, 只要定义一个正定核(positive kernel)——一个符合正定条件的二元运算,就必然存在一个希尔伯特空 间,其内积运算等效于核运算。这个结论的重要意义在于,我们可以绕开线性空间,通过首先定义 kernel 的方式,诱导出一个线性空间(叫做再生核希尔伯特空间 Reproducing Kernel Hilbert Space),从 而我们就自然获得我们所需要的度量结构和线性运算结构。这是 kernel theory 的基础。 在很多教科书中,以二次核为例子,把二维空间变成三维,然后告诉大家 kernel 用于升维。对于这种 说法,我一直认为在一定程度上是误导的。事实上,kernel 的最首要意义是内积的建立(或者改造) , 从而诱导出更利于表达的度量和运算结构。对于一个问题而言,选择一个切合问题的 kernel 比起关注 “升维”来得更为重要。 kernel 被视为非线性化的重要手段, 用于处理非高斯的数据分布。 这是有道理的。 通过 nonlinear kernel 改造的内积空间,其结构和原空间的结构确实不是线性关联,从这个意义上说,它实施了非线性化。 不过,我们还应该明白,它的最终目标还是要回到线性空间,新的内积空间仍旧是一个线性空间,它 一旦建立,其后的运算都是线性的,因此,kernel 的使用就是为了寻求一个新的线性空间,使得线性 运算更加合理——非线性化的改造最终仍旧是要为线性运算服务。 值得一提的是,kernelization 本质上说还是一种嵌入过程:对于一个空间先建立内积结构,并且以保 持内积结构不变的方式嵌入到一个高维的线性空间,从而继承其线性运算体系。 7. 上面说到的都是从全局的方式建立代数结构的过程,但是那必须以某种全局结构为基础(无论预先定 义的是运算,度量还是内积,都必须适用于全空间。 )但是,全局结构未必存在或者适合,而局部结 构往往简单方便得多。这里就形成一种策略,以局部而达全局 以局部而达全局——这就是流形 流形(manifold)的思想 的思想,而 以局部而达全局 流形 的思想 其则根源于拓扑学。 从拓扑学的角度说,流形就是一个非常优良的拓扑空间:符合 Hausdorff 分离公理 任何不同的 分离公理(任何不同的 两点都可以通过不相交的邻域分离) 符合第二可数公理 具有可数的拓扑基) 符合第二可数公理( ,并且更重要的是,局 两点都可以通过不相交的邻域分离 ,符合第二可数公理(具有可数的拓扑基) 部同胚于 R^n。 因此, 一个正则(Regular)流形基本就具有了各种最良好的拓扑特性。 而局部同胚于 R^n, 代表了它至少在局部上可以继承 R^n 的各种结构, 比如线性运算和内积, 从而建立分析体系。 事实上, 拓扑流形继承这些结构后形成的体系,正是现代流形理论研究的重点。继承了分析体系的流形,就形 成了微分流形(Differential manifold),这是现代微分几何的核心。而微分流形各点上的切空间(Tangent Space),则获得了线性运算的体系。而进一步继承了局部内积结构的流形,则形成黎曼流形(Riemann manifold),而流形的全局度量体系——测地距离(geodesics)正是通过对局部度量的延伸来获得。进一 步的, 当流行本身的拓扑结构和切空间上的线性结构发生关系——也就获得一簇拓扑关联的线性空间 ——向量丛(Vector bundle)。 虽然 manifold theory 作为现代几何学的核心,是一个博大精深的领域,但是它在 learning 中的应用则 显得非常狭窄。 事实上, 对于 manifold, 很多做 learning 的朋友首先反应的是 ISOMAP, LLE, eigenmap 之类的算法。这些都属于 embedding。当然,这确实是流形理论的一个重要方面。严格来说,这要求 之类的算法 是从原空间到其映像的微分同胚映射,因此,嵌入后的空间在局部上具有相同的分析结构,同时也获得 了各种好处——全局的线性运算和度量。 不过, 这个概念在 learning 的应用中被相当程度的放宽了—— 微分同胚并不能被完全保证,而整个分析结构也不能被完全保持。大家更关注的是保持局部结构中的 某个方面——不过这在实际应用中的折衷方案也是可以理解的。事实表明,当原空间中的数据足够密 集的情况下,这些算法工作良好。 Learning 中流形应用的真正问题在于它被过滥地运用于稀疏空间 稀疏空间(Sparse space), 事实上在高维空间中撒 进去几千乃至几十万点,即使最相邻的几点也难称为局部了,局部的范围和全局的范围其实已经没有 了根本差别,连局部的概念都立不住脚的时候,后面基于其展开的一切工作也都没有太大的意义。事 实上,稀疏空间有其本身的规律和法则 通过局部形成全局的流形思想从本质上是不适合于此的。虽 稀疏空间有其本身的规律和法则, 稀疏空间有其本身的规律和法则 然,流形是一种非常美的理论,但是再漂亮的理论也需要用得其所——它应该用于解决具有密集数据 应该用于解决具有密集数据 分布的低维空间。至于,一些 paper 所报告的在高维空间(比如人脸)运用流形方法获得性能提升, 分布的低维空间 其实未必是因为“流形”本身所起的作用,而很可能是其它方面的因素。 8. 流形在实际应用中起重要作用的还有两个方面:一个是研究几何形体的性质 研究几何形体的性质(我们暂且不谈这个) , 研究几何形体的性质 还有就是它和代数结构的结合形成的李群 它和代数结构的结合形成的李群(Lie group)和李代数 和李代数(Lie algebra)。当我们研究的对象是变 它和代数结构的结合形成的李群 和李代数 换本身的时候,它们构成的空间是有其特殊性 特殊性的,比如所有子空间投影形成了 Grassmann 流形,所 流形, 特殊性 所有子空间投影形成了 有的可逆线性算子,或者仿射算子,也形成各自的流形 最重要操作是变换的结合,而不是 有的可逆线性算子,或者仿射算子,也形成各自的流形。对他们的最重要操作是变换的结合 最重要操作是变换的结合 加法数乘,因此,它们上面定义的更合适的代数结构应该是群和不是线性空间。而群和微分流形的结 群 群和微分流形的结 群和微分流 合体——李群 李群则成为它们最合适的描述体系——而其切空间 其切空间则构成了一种加强的线性空间 李代数, 一种加强的线性空间: 合体 李群 其切空间 一种加强的线性空间 李代数, 用于描述其局部变化特性。 用于描述其局部变化特性。 李代数和李群的关系是非常漂亮的。它把变换的微变化转换成了线性空间的代数运算,使得移植传统 把变换的微变化转换成了线性空间的代数运算 转换成了线性空间的代数运算 的基于线性空间的模型和算法到李空间变得可能 而且李代数中的矩阵比起变换本身的矩阵甚至更能 线性空间的模型和算法到李空间变得可能。 线性空间的模型和算法到李空间变得可能 反映变换的特性。几何变换的李代数矩阵的谱结构就能非常方便地用于分析变换的几何特性 分析变换的几何特性。 分析变换的几何特性 最后,回头总结一下关于嵌入这个应用广泛的策略,在 learning 中的 isometry, kernel 和 manifold embedding 都属于此范畴,它们分别通过保持原空间的度量结构,内积结构和局部结构来获得到目标(通 通过保持原空间的度量结构 度量结构, 常是向量空间)的嵌入,从而获得全局的坐标表达,线性运算和度量,进而能被各种线性算法和模型 所应用。 在获得这一系列好处的同时,也有值得我们注意的地方。首先 嵌入只是一种数学手段,并不能取代对 首先, 首先 问题本身的研究和分析。一种不恰当的原始结构或者嵌入策略,很多时候甚至适得其反——比如稀疏空 间的流形嵌入,或者选取不恰当的 kernel。另外,嵌入适合于分析,而未必适合于重建或者合成。这是因 嵌入适合于分析, 为嵌入是一个单射(injection),目标空间不是每一个点都和原空间能有效对应的。嵌入之后的运算往 嵌入是一个单射 嵌入是一个单射 往就打破了原空间施加的限制。比如两个元素即使都是从原空间映射过来,它们的和却未必有原像, 两个元素即使都是从原空间映射过来,它们的和却未必有原像, 这时就不能直接地回到原空间了。当然可以考虑在原空间找一个点它的映射与之最近,不过这在实际 中的有效性是值得商榷的。 和 Learning 有关的数学世界是非常广博的,我随着学习和研究的深入,越来越发现在一些我平常不注 意的数学分支中有着适合于问题的结构和方法。比如,广群 广群(groupoid)和广代数 和广代数(algebroid)能克服李 广群 和广代数 能克服李 群和李代数在表示连续变换过程中的一些困难——这些困难困扰了我很长时间。 群和李代数在表示连续变换过程中的一些困难 表示连续变换过程中的一些困难 解决问题和建立数学 模型是相辅相成的,一方面,一个清晰的问题将使我们有明确的目标去寻求合适的数学结构 清晰的问题将使我们有明确的目标去寻求合适的数学结构,另一方 模型是相辅相成的 清晰的问题将使我们有明确的目标去寻求合适的数学结构 面,对数学结构的深入理解对于指导问题的解决也是有重要作用的。对于解决一个问题来说,数学工 对数学结构的深入理解对于指导问题的解决也是有重要作用的。 对数学结构的深入理解对于指导问题的解决也是有重要作用的 具的选择最重要的是适合 适合,而不是高深,但是如果在现有数学方法陷入困难的时候,寻求更高级别的 适合 寻求更高级别的 数学的帮助,往往能柳暗花明 数学的帮助,往往能柳暗花明。数学家长时间的努力解决的很多问题,并不都是理论游戏,他们的解 决方案中很多时候蕴含着我们需要的东西, 而且可能导致对更多问题的解决——但是我们需要时间去 学习和发现它们。 和机器学习和计算机视觉相关的数学(转载) 和机器学习和计算机视觉相关的数学(转载) 机视觉相关的数学 (以下转自一位 MIT 牛人的空间文章,写得很实际: ) 作者: 作者:Dahua 感觉数学似乎总是不够的。这些日子为了解决 research 中的一些问题,又在图书馆捧起了数学的教科 书。从大学到现在,课堂上学的和自学的数学其实不算少了,可是在研究的过程中总是发现需要补充 新的数学知识。Learning 和 Vision 都是很多种数学的交汇场。看着不同的理论体系的交汇,对于一 个 researcher 来说,往往是非常 exciting 的 enjoyable 的事情。不过,这也代表着要充分了解这个领域 并且取得有意义的进展是很艰苦的。记得在两年前的一次 blog 里面,提到过和 learning 有关的数学。 今天看来,我对于数学在这个领域的作用有了新的思考。对于 Learning 的研究, 1、Linear Algebra (线性代数 和 Statistics (统计学 是最重要和不可缺少的。这代表了 Machine 线性代数) 统计学) 线性代数 统计学 是最重要和不可缺少的。 Learning 中最主流的两大类方法的基础。 一种是以研究函数和变换 研究函数和变换为重点的代数方法 比如 Dimension 代数方法, 研究函数和变换 代数方法 reduction,feature extraction,Kernel 等,一种是以研究统计模型和样本分布 , 研究统计模型和样本分布为重点的统计方法 统计方法,比 , 研究统计模型和样本分布 统计方法 如 Graphical model, Information theoretical models 等。它们侧重虽有不同,但是常常是共同使用的, 对于代数方法,往往需要统计上的解释,对于统计模型, 具体计算则需要代数的帮助 对于代数方法,往往需要统计上的解释,对于统计模型,其具体计算则需要代数的帮助。以代数和统 代数方法 统计上的解释 统计模型 计为出发点,继续往深处走,我们会发现需要更多的数学。 2、Calculus (微积分 ,只是数学分析体系的基础。其基础性作用不言而喻。Learning 研究的大部分问 微积分), 微积分 只是数学分析体系的基础。 题是在连续的度量空间进行的,无论代数还是统计,在研究优化问题的时候,对一个映射的微分或者 映射的微分或者 梯度的分析总是不可避免。而在统计学中,Marginalization 和积分 和积分更是密不可分——不过,以解析形 梯度的分析 式把积分导出来的情况则不多见。 3、Partial Differential Equation (偏微分方程),这主要用于描述动态过程 描述动态过程,或者仿动态过程 仿动态过程。这个 偏微分方程 , 描述动态过程 仿动态过程 学科在 Vision 中用得比 Learning 多, 主要用于描述连续场的运动或者扩散过程 比如 Level set, Optical 描述连续场的运动或者扩散过程。 描述连续场的运动或者扩散过程 flow 都是这方面的典型例子。 4、 Functional Analysis (泛函分析 , 泛函分析), 可以理解为微积分从有限维空间到无限维空间的拓展 微积分从 空间到无限维空间的 泛函分析 通俗地, 微积分 有限维空间到无限维空间 拓展—— 当然了,它实际上远不止于此。在这个地方,函数以及其所作用的对象之间存在的对偶关系扮演了非 常重要的角色。Learning 发展至今,也在向无限维延伸——从研究有限维向量 有限维向量的问题到以无限维的函 有限维向量 以无限维的函 研究对象。Kernel Learning 和 Gaussian Process 是其中典型的例子——其中的核心概念都是 数为研究对象 研究对象 Kernel。很多做 Learning 的人把 Kernel 简单理解为 Kernel trick 的运用,这就把 kernel 的意义严重弱 化了。在泛函 泛函里面,Kernel (Inner Product)是建立整个博大的代数体系的根本 建立整个博大的代数体系的根本 泛函 建立整个博大的代数体系的根本,从 metric, transform 到 spectrum 都根源于此。 5、Measure Theory (测度理论 ,这是和实分析关系非常密切的学科。但是测度理论并不限于此。从 测度理论), 测度理论 某种意义上说,Real Analysis 可以从 Lebesgue Measure(勒贝格测度)推演,不过其实还有很多别的 (勒贝格测度) 测度体系——概率本身就是一种测度 测度理论对于 Learning 的意义是根本的,现代统计学整个就是 概率本身就是一种测度。 现代统计学整个就是 概率本身就是一种测度 现代统计学 建立在测度理论的基础之上 在看一些统计方面的文章 建立在测度理论的基础之上——虽然初级的概率论教科书一般不这样引入。 测度理论的基础之上 的时候,你可能会发现,它们会把统计的公式改用测度来表达,这样做有两个好处:所有的推导和结 论不用分别给连续分布和离散分布各自写一遍了,这两种东西都可以用同一的测度形式表达:连续分 连续分 布的积分基于 测度,离散分布的求和基于计数测度 离散分布的求和基于计数测度,而且还能推广到那种既不连续又不离 布的积分基于 Lebesgue 测度 离散分布的求和基于计数测度 散的分布中去(这种东西不是数学家的游戏,而是已经在实用的东西,在 Dirchlet Process 或者 Pitman-Yor Process 里面会经常看到)。而且,即使是连续积分,如果不是在欧氏空间进行,而是在更 一般的拓扑空间(比如微分流形或者变换群) ,那么传统的黎曼积分(就是大学一年级在微积分课学 的那种)就不 work 了,你可能需要它们的一些推广,比如 Haar Measure 或者 Lebesgue-Stieltjes 积 分。 6、Topology(拓扑学),这是学术中很基础的学科。它一般不直接提供方法,但是它的很多概念和定 (拓扑学 , 理是其它数学分支的基石。看很多别的数学的时候,你会经常接触这样一些概念:Open set / Closed set,set basis,Hausdauf, continuous function,metric space, Cauchy sequence, neighborhood, , , , compactness, connectivity。 很多这些也许在大学一年级就学习过一些, 当时是基于极限的概念获得的。 如果,看过拓扑学之后,对这些概念的认识会有根本性的拓展。比如,连续函数,当时是由 epison 法 定义的,就是无论取多小的正数 epsilon,都存在 xxx,使得 xxx。这是需要一种 metric 去度量距离的, 在 general topology 里面,对于连续函数的定义连坐标和距离都不需要——如果一个映射使得开集的 一个映射使得开集的 原像是开集,它就是连续 连续的——至于开集是基于集合论定义的,不是通常的开区间 开区间的意思。这只是最 原像是开集 连续 开区间 简单的例子。当然,我们研究 learning 也许不需要深究这些数学概念背后的公理体系,但是,打破原 来定义的概念的局限在很多问题上是必须的——尤其是当你研究的东西它不是在欧氏空间里面的时 候——正交矩阵,变换群,流形,概率分布的空间,都属于此。 正交矩阵,变换群,流形,概率分布的空间 正交矩阵 7、Differential Manifold (微分流形 ,通俗地说它研究的是平滑的曲面。一个直接的印象是它是不是 微分流形), 微分流形 可以用来 fitting 一个 surface 什么的——当然这算是一种应用,但是这是非常初步的。本质上说 微 本质上说,微 本质上说 分流形研究的是平滑的拓扑结构 空间构成微分流形的基本要素是局部平滑:从拓扑学 拓扑学来理解, 分流形研究的是平滑的拓扑结构。一个空间构成微分流形 平滑的拓扑结构 空间构成微分流形 拓扑学 就是它的任意局部都同胚于欧氏空间,从解析 解析的角度来看,就是相容的局部坐标系统。当然,在全局 解析 上,它不要求和欧氏空间同胚。它除了可以用于刻画集合上的平滑曲面外,更重要的意义在于,它可 以用于研究很多重要的集合。一个 n-维线性空间的全部 k-维子空间(k 8、Lie Group Theory (李群论 ,一般意义的群论在 Learning 中被运用的不是很多,群论在 Learning 李群论), 李群论 中用得较多的是它的一个重要方向 Lie group。定义在平滑流形上的群,并且其群运算是平滑的话, 那么这就叫李群。因为 Learning 和编码不同,更多关注的是连续空间,因为 Lie group 在各种群中对 于 Learning 特别重要。各种子空间,线性变换,非奇异矩阵都基于通常意义的矩阵乘法构成李群。在 李群中的映射,变换,度量,划分等等都对于 Learning 中代数方法的研究有重要指导意义。 9、Graph Theory(图论 ,图,由于它在表述各种关系的强大能力以及优雅的理论,高效的算法,越 (图论), 来越受到 Learning 领域的欢迎。经典图论,在 Learning 中的一个最重要应用就是 graphical models 了, 它被成功运用于分析统计网络的结构和规划统计推断的流程。Graphical model 所取得的成功,图论可 谓功不可没。在 Vision 里面,maxflow (graphcut)算法在图像分割,Stereo 还有各种能量优化中也广受 应用。另外一个重要的图论分支就是 Algebraic graph theory (代数图论),主要运用于图的谱分析,著 名的应用包括 Normalized Cut 和 Spectral Clustering。近年来在 semi-supervised learning 中受到特别关 注。 这是大牛们做的很好的综述啊! 据说,是 MIT 一牛人对数学在机器学习中的作用给的评述!

No comments:

Post a Comment