按投票排序按时间排序
8 个回答
想像一下你是一个973首席科学家,你的课题是用一个牛逼闪闪超级计算机模拟一杯水,看看在里面慢慢拽铁球阻力有多大。你的想法很简单:直接精确模拟每个水分子!
你给电脑里输入了水分子的真实大小(一个参数),形状(比如说用了2000个参数描述)和不同距离的作用力(又用了2000个参数),你的超级计算机很牛,直接模拟了10^26个水分子。然后你把铁球也建了模放了进去,用计算模拟的方法算出了让铁球慢慢前进需要克服的阻力。和实验一比,发现精确吻合!好开心,只要再模拟几回,多攒点数据就可以发nature了!
这时系统管理员给你发email,说你占了太多的cpu时间,别人啥事都干不了。让你想办法把计算量减少一点。
怎么办呢?你想了想,觉得铁球这么大,你不用把模拟搞得这么精细也能得到正确答案。所以你决定把模拟用的水分子体积加10倍,这样就只要模拟10^25个分子了。但是光这样搞不行,得出的结果肯定不对,因为有些纳米级的小运动造成的宏观效果没了。这时你有一个学生说,老板,其实咱可以试着改改另外那4000个参数,说不定能把失去的东西给补偿回来。你觉得靠谱,开动聪明的大脑想了想,心算出了每个参数需要的改变。于是你用更大的分子和新的参数重新计算,精确的再现了之前得到的数据。(注意,这时你已经对你的系统进行了一次 renormalization)
系统管理员觉得你好欺负,又要求你降低占用的资源。
你大手一挥说“这简单,我能把cpu时间降到1/10000000000”,你就把刚才那个增大分子尺寸+调整参数的过程重复了10遍,现在你的分子体积比真实水分子大10^11次方倍,但是你仍然牛逼的算出了和实验精确相符的阻力。
在你的nature 文章里,把为了简化计算发明的这个方法叫Renormalization group (RG)。把每次模拟时水分子的大小叫做RG scale, 然后你把每次用的参数按照水分子的大小列了个表,把它们在尺寸增加时的变化,叫做参数的RG running。你预见到场论里的应用,把用这种方法得到的这个新模型,叫做low energy effective field theory (EFT).
最后,你有点惊讶的发现,当你一步步增大水分子尺寸时,本来都很关键的4000个参数,有些干脆变成0了,有些参数和其它的参数成正比了。总之到最后,你只用了大概10个自由参数就完美的描述了这一杯水。你把那些最后没用的参数叫irrelevant parameters,把它们描述的形状/作用力叫irrelevant operator. 你把这些irrelevant parameter/operator 都去掉,得到的那个精简的理论模型就叫做renormalizable theory。它和你之前得到的EFT几乎是一样的。
这时,系统管理员又来欺负你,说你能不能就模拟两个水分子,这样他就可以用超算玩游戏了。但是这回你两手一摊,说哥们这真不行,如果我的水分子选的比我的铁球还大,那无论怎么调参数,我的计算肯定失败,下一篇science就发不出来了!(在水分子的例子里,RG scale不应当接近铁球的尺寸,在真正的场论里,有技术可以允许把RG scale选择的和物理过程的尺寸相当。但是在任何情况下,RG scale都不应该比物理过程的尺寸更长。)
-------
吐个槽,“重整化群”真是物理名词界的一朵奇葩,把一个本来平易近人的词翻译的不明觉厉。这个词英文是 renormalization group(RG). Normalize 大家都认得,基本意思是给一个变量乘个常数,让它更符合一些简单要求。比如几何里说 normalized vector, 就是说改变了一个矢量的定义,让它的长度等于一. re-normalize 就是不断的 normalize. group 这里是泛指变换,不指数学上严格的群。renormalization group 的字面意思就是“不断重新定义参数的一组变换”。
-------
警告!前方有大量物理名词出没!!
重整化群在物理中有很多深远的影响。标准模型是我们描述粒子物理的基本理论,它是一个renormalizable theory. 从RG的角度看,它就相当于我们在上面把尺度扩大的10^10得到的effective theory。也就是说,真正的基本理论埋藏在比标准模型小的多的尺度。标准模型的尺度是多少呢?是10^-18米。所以终极理论描述的过程要比这个还小的多。我们离终极理论还很远很远。
现在想象,如果你的计算机无限强大,你能模拟无限大的一杯水。(现在不考虑铁球了)你不断的重复上面的这个RG过程,最后会怎么样呢?很可能,最后当你增大分子体积的时候,你发现系统的所有参数都不再需要变化了!这时,你就说你的系统有了scale symmetry,尺度不变性。你把这个尺度不变的模型叫一个不动点。后来你发现,可以乱改最初的那个精确分子模型的参数,但大部分情况下,经过很多轮RG running,它还是跑到了同一个不动点。你就说所有这样的微观理论都属于同一个universality class. 有时系统也会跑到另一个不动点。所以你发现RG对输入的微观系统实现了一个分类。这个和机器学习很像。(如何理解“深度学习和重整化群可以建立严格映射”,这一结论对领域有何影响? - 物理学) 两个非常不一样的系统宏观上行为可以是完全相似的(属于同一个universality class)。比如在三相点的水,和在相变临界态的铁磁体就可能属于同一个universality class。在物理体系里,这个分类和相变的对称性破缺有关。
-------
@Alex Huang 问了一个很好的问题:重整化群对什么样的系统是有效的?也就是说,什么情况下这个办法能有效的简化模型,降低计算量?
重整化群有效本质原因是不同尺度的过程之间往往有一种相对的独立性。如果你的系统是这样的,那重整化群的方法会给你有用的结果。
想像一下你站在一艘长200米的大轮船上,波长一米的小浪你能感觉到吗?即使同样的浪高,如果波长变成200米,这浪就能让船晃起来,让你晕的不行。所以,短距离的过程(波长一米的浪)对长距离的过程(大船的行驶)基本影响不大,最多可能就是改变了大船遇到的阻力。所以如果我们在模拟时可以不直接再现这种短距离过程,只要改变一些长距离的参数(行船的阻力)把它们的影响合适的加进去,就仍然可以精确的模拟系统长距离上的行为。当然在更复杂的问题里,你需要用计算的方法得出每一个参数随RG scale的变化,这样你自然能算出最终那些参数是重要的。
-------
最后,我在这里故意回避了量子场论,牺牲了一些技术细节,是想让非物理专业的读者对重整化的概念和操作有一个直观的认识。本文的目的是让读者以后能想起来用RG的思路解决问题。以上对RG的理解是上世纪量子场论的重大进步之一,后来也被用于描述其它物理体系。主要的推动者是前年去世的 Kenneth G. Wilson, 这个理解方式也被叫做Wilsonian RG。基于这个想法,Wilson同时也提出了用离散格点模拟量子场论的办法,这个方法今天叫lattice QCD, 需要用到目前世界上最好的超级计算机,和本文中水分子模拟也有更多直接对应的地方。我昨天听说,lattice qcd终于被发展到可以从第一原理出发,精确的计算质子和中子的质量差。(这也是当下唯一的办法。) Wilson泉下有知,也可以安心了!本小弱特以此文向Wilson和做lattice qcd的猛士们致敬。 显示全部
你给电脑里输入了水分子的真实大小(一个参数),形状(比如说用了2000个参数描述)和不同距离的作用力(又用了2000个参数),你的超级计算机很牛,直接模拟了10^26个水分子。然后你把铁球也建了模放了进去,用计算模拟的方法算出了让铁球慢慢前进需要克服的阻力。和实验一比,发现精确吻合!好开心,只要再模拟几回,多攒点数据就可以发nature了!
这时系统管理员给你发email,说你占了太多的cpu时间,别人啥事都干不了。让你想办法把计算量减少一点。
怎么办呢?你想了想,觉得铁球这么大,你不用把模拟搞得这么精细也能得到正确答案。所以你决定把模拟用的水分子体积加10倍,这样就只要模拟10^25个分子了。但是光这样搞不行,得出的结果肯定不对,因为有些纳米级的小运动造成的宏观效果没了。这时你有一个学生说,老板,其实咱可以试着改改另外那4000个参数,说不定能把失去的东西给补偿回来。你觉得靠谱,开动聪明的大脑想了想,心算出了每个参数需要的改变。于是你用更大的分子和新的参数重新计算,精确的再现了之前得到的数据。(注意,这时你已经对你的系统进行了一次 renormalization)
系统管理员觉得你好欺负,又要求你降低占用的资源。
你大手一挥说“这简单,我能把cpu时间降到1/10000000000”,你就把刚才那个增大分子尺寸+调整参数的过程重复了10遍,现在你的分子体积比真实水分子大10^11次方倍,但是你仍然牛逼的算出了和实验精确相符的阻力。
在你的nature 文章里,把为了简化计算发明的这个方法叫Renormalization group (RG)。把每次模拟时水分子的大小叫做RG scale, 然后你把每次用的参数按照水分子的大小列了个表,把它们在尺寸增加时的变化,叫做参数的RG running。你预见到场论里的应用,把用这种方法得到的这个新模型,叫做low energy effective field theory (EFT).
最后,你有点惊讶的发现,当你一步步增大水分子尺寸时,本来都很关键的4000个参数,有些干脆变成0了,有些参数和其它的参数成正比了。总之到最后,你只用了大概10个自由参数就完美的描述了这一杯水。你把那些最后没用的参数叫irrelevant parameters,把它们描述的形状/作用力叫irrelevant operator. 你把这些irrelevant parameter/operator 都去掉,得到的那个精简的理论模型就叫做renormalizable theory。它和你之前得到的EFT几乎是一样的。
这时,系统管理员又来欺负你,说你能不能就模拟两个水分子,这样他就可以用超算玩游戏了。但是这回你两手一摊,说哥们这真不行,如果我的水分子选的比我的铁球还大,那无论怎么调参数,我的计算肯定失败,下一篇science就发不出来了!(在水分子的例子里,RG scale不应当接近铁球的尺寸,在真正的场论里,有技术可以允许把RG scale选择的和物理过程的尺寸相当。但是在任何情况下,RG scale都不应该比物理过程的尺寸更长。)
-------
吐个槽,“重整化群”真是物理名词界的一朵奇葩,把一个本来平易近人的词翻译的不明觉厉。这个词英文是 renormalization group(RG). Normalize 大家都认得,基本意思是给一个变量乘个常数,让它更符合一些简单要求。比如几何里说 normalized vector, 就是说改变了一个矢量的定义,让它的长度等于一. re-normalize 就是不断的 normalize. group 这里是泛指变换,不指数学上严格的群。renormalization group 的字面意思就是“不断重新定义参数的一组变换”。
-------
警告!前方有大量物理名词出没!!
重整化群在物理中有很多深远的影响。标准模型是我们描述粒子物理的基本理论,它是一个renormalizable theory. 从RG的角度看,它就相当于我们在上面把尺度扩大的10^10得到的effective theory。也就是说,真正的基本理论埋藏在比标准模型小的多的尺度。标准模型的尺度是多少呢?是10^-18米。所以终极理论描述的过程要比这个还小的多。我们离终极理论还很远很远。
现在想象,如果你的计算机无限强大,你能模拟无限大的一杯水。(现在不考虑铁球了)你不断的重复上面的这个RG过程,最后会怎么样呢?很可能,最后当你增大分子体积的时候,你发现系统的所有参数都不再需要变化了!这时,你就说你的系统有了scale symmetry,尺度不变性。你把这个尺度不变的模型叫一个不动点。后来你发现,可以乱改最初的那个精确分子模型的参数,但大部分情况下,经过很多轮RG running,它还是跑到了同一个不动点。你就说所有这样的微观理论都属于同一个universality class. 有时系统也会跑到另一个不动点。所以你发现RG对输入的微观系统实现了一个分类。这个和机器学习很像。(如何理解“深度学习和重整化群可以建立严格映射”,这一结论对领域有何影响? - 物理学) 两个非常不一样的系统宏观上行为可以是完全相似的(属于同一个universality class)。比如在三相点的水,和在相变临界态的铁磁体就可能属于同一个universality class。在物理体系里,这个分类和相变的对称性破缺有关。
-------
@Alex Huang 问了一个很好的问题:重整化群对什么样的系统是有效的?也就是说,什么情况下这个办法能有效的简化模型,降低计算量?
重整化群有效本质原因是不同尺度的过程之间往往有一种相对的独立性。如果你的系统是这样的,那重整化群的方法会给你有用的结果。
想像一下你站在一艘长200米的大轮船上,波长一米的小浪你能感觉到吗?即使同样的浪高,如果波长变成200米,这浪就能让船晃起来,让你晕的不行。所以,短距离的过程(波长一米的浪)对长距离的过程(大船的行驶)基本影响不大,最多可能就是改变了大船遇到的阻力。所以如果我们在模拟时可以不直接再现这种短距离过程,只要改变一些长距离的参数(行船的阻力)把它们的影响合适的加进去,就仍然可以精确的模拟系统长距离上的行为。当然在更复杂的问题里,你需要用计算的方法得出每一个参数随RG scale的变化,这样你自然能算出最终那些参数是重要的。
-------
最后,我在这里故意回避了量子场论,牺牲了一些技术细节,是想让非物理专业的读者对重整化的概念和操作有一个直观的认识。本文的目的是让读者以后能想起来用RG的思路解决问题。以上对RG的理解是上世纪量子场论的重大进步之一,后来也被用于描述其它物理体系。主要的推动者是前年去世的 Kenneth G. Wilson, 这个理解方式也被叫做Wilsonian RG。基于这个想法,Wilson同时也提出了用离散格点模拟量子场论的办法,这个方法今天叫lattice QCD, 需要用到目前世界上最好的超级计算机,和本文中水分子模拟也有更多直接对应的地方。我昨天听说,lattice qcd终于被发展到可以从第一原理出发,精确的计算质子和中子的质量差。(这也是当下唯一的办法。) Wilson泉下有知,也可以安心了!本小弱特以此文向Wilson和做lattice qcd的猛士们致敬。 显示全部
谢邀。
很意外地,这问题竟然有「深度学习(Deep Learning)」这个标签,大概是因为深度学习(Deep Learning, DL)和重整化群(Renormalization Group, RG)关系的那一篇文章吧。跟大众非物理专业的同学讲解和向数据科学/计算机科学的同学讲解RG可是不太一样。
如果是向一般普罗大众谈RG,我只会说这是一个像照像机zoom out的过程,在zoom out后只剩下比较相关的消息。其他就呵呵了。
如果向计算机科学的同学讲解的话,大可以指出这是统计物理的理论,但可以推演到多体或集体系统,而这系统必定接近临界点,其系统有自相似性。重整化群的意思就是一个粗粒化处理(但也不妨用zoom out一字),由于系统有自相似性,zoom out后系统并没有改变,不过当中一些无关的特征在zoom out后被减弱了,那我们就知道系统中那一些参数是不必要的。同样地,用DL经过几层的计算后,一些特征消失了,也是因为DL和RG在某些程况下等价的原因。
很意外地,这问题竟然有「深度学习(Deep Learning)」这个标签,大概是因为深度学习(Deep Learning, DL)和重整化群(Renormalization Group, RG)关系的那一篇文章吧。跟大众非物理专业的同学讲解和向数据科学/计算机科学的同学讲解RG可是不太一样。
如果是向一般普罗大众谈RG,我只会说这是一个像照像机zoom out的过程,在zoom out后只剩下比较相关的消息。其他就呵呵了。
如果向计算机科学的同学讲解的话,大可以指出这是统计物理的理论,但可以推演到多体或集体系统,而这系统必定接近临界点,其系统有自相似性。重整化群的意思就是一个粗粒化处理(但也不妨用zoom out一字),由于系统有自相似性,zoom out后系统并没有改变,不过当中一些无关的特征在zoom out后被减弱了,那我们就知道系统中那一些参数是不必要的。同样地,用DL经过几层的计算后,一些特征消失了,也是因为DL和RG在某些程况下等价的原因。
飞鱼的答案很好,我整理几个要点,供大家参考:
1、多体相互作用物理系统理论上可解,因为参数和公式等等很清楚。
2、该系统实际不可解,计算机的计算量跟不上,因为计算量随体系增大指数上升。
3、假如整个体系有10^26个自由度,实际上10000个自由度已经包含99%的信息,能够准确描述该多体系统,冗余的自由度可以删减掉。
4、被删减的自由度,一般来说不是“自然的自由度”,而是“重整化后的自由度”,类比为坐标变换。
5、重整化是一个迭代进行的计算过程。
1、多体相互作用物理系统理论上可解,因为参数和公式等等很清楚。
2、该系统实际不可解,计算机的计算量跟不上,因为计算量随体系增大指数上升。
3、假如整个体系有10^26个自由度,实际上10000个自由度已经包含99%的信息,能够准确描述该多体系统,冗余的自由度可以删减掉。
4、被删减的自由度,一般来说不是“自然的自由度”,而是“重整化后的自由度”,类比为坐标变换。
5、重整化是一个迭代进行的计算过程。
No comments:
Post a Comment