《上帝掷骰子吗》

这是一本关于量子力学的科普书籍,形而上的部分写的相当漂亮。

主线是对光的解释 光:

古代

光程最短 以太假说

经典时代

主要成绩:

  • 经典力学
  • 经典电动力学
  • 经典热力学
    • 统计力学

第一次交锋

  • 波动说
    • 胡克
    • 波义耳
    • 1690惠更斯《光论》 推导出光的反射和折射
  • 微粒说
    • 牛顿
      棱镜原理
      牛顿环
      1704《光学》

第二次交锋

  • 波动说
    • 托马斯·杨 双缝干涉实验 1807《自然哲学讲义》
    • 1819 菲涅尔解决偏振问题(光是横波) 泊松:泊松亮斑
  • 粒子说
    • 马吕斯-光的偏振现象 反驳了自然哲学讲义

第三次交锋

  • 波动阵营
    • 麦克斯韦1885,1861,1865 1861预言光是电磁波 1887赫兹实验证明电磁波存在
  • 粒子
    • 光电实验:赫兹实验
    • 爱因斯坦:光电效应 密立根实验 康普顿散射实验(康普顿效应)
    • 波尔:原子结构,光谱理论 这是一个半经典的理论

两朵乌云

  1. 光以太
    迈克尔逊-莫雷实验:光速恒同
    麦克斯韦-波尔曼能量均分说
  2. 黑体辐射实验
    • 从粒子推导,得出适于短波的维恩公式
    • 从类波推导,得出适于长波的瑞利-金斯公式

1900量子理论的诞生

  • 普朗克(42岁)
    • 插值法整合两个黑体辐射公式
    • 解释公式:能量传输必须分段进行
  • 人物
    • Albert Einstein
    • Niels Bohr波尔
    • Erwin Schrodinger薛定谔
    • Max Born马克斯波恩
    • Louis de Broglie
    • Wolfgang Ernst Pauli泡利
    • Werner Karl Heisenberg 海森堡
    • Enrico Fermi费米
    • Paul Dirac狄拉克

新时代

  • 德布罗意波
    • 电子,是一种波!又为何只有一个亮斑?
    • 战火烧到整个世界,世界是粒子还是波?
  • 海森堡:矩阵
    • 波恩和约尔当:矩阵力学
  • 薛定谔:波动力学
  • 波恩:概率云
  • 海森堡:测不准原理
  • 波粒二象性:表现为波还是表现为粒子,取决于观察

1. 哥本哈根解释

哥本哈根解释,围绕三大核心原理:概率解释、不确定性原理、互补原理
前两者摧毁了经典世界的因果性,后两者摧毁了世界的客观性和实在性

不确定性原理又称作“测不准原理”。$\Delta p \times \Delta q>h/4\pi$。
不确定性限制了我们对微观事物认识的极限,而这个极限也就是具有物理意义的一切。其次,因为存在着观测者对于被观测事物的不可避免的扰动,现在主体和客体世界必须被理解成一个不可分割的整体。没有一个孤立地存在于客观世界的“事物”(being),事实上一个纯粹的客观世界是没有的,任何事物都只有结合一个特定的观测手段,才谈得上具体意义。对象所表现出的形态,很大程度上取决于我们的观测方法。对于同一对象来说,这些表现形态可能是互相排斥的,但必须被同时用于这个对象的描述中,也就是互补原理。
最后,因为我们的观测给事物带来各种不可预测的扰动,量子世界的本质是“随机性”。传统观念中的严格因果关系是不存在的,必须以一种统计性的解释来取而代之。

互补原理:任何时候观察电子,它当然只能表现出一种属性,要么波,要么粒子。
电子的“本来面目”或“终极概念”是不存在的,事实上我们也不关心大自然的“本来”是什么,只关心“观测”到的大自然是什么。讨论哪个是“真实”毫无意义,我们唯一能说的,是在某种观察方式下,它呈现什么样子。

“坍缩”(collapse):每当我们试图测量电子的位置,它原本的概率分布便瞬间集中到某个点上,一个实实在在的电子便大摇大摆地出现在那里。
不观测的时候,根本就没有实在,自然也就没有实在的电子。事实上不存在“电子”这种东西,只存在“我们与电子之间的观测关系”

EPR佯谬(三位提出者爱因斯坦,波多尔斯基,罗森的首字母)
想象一个大粒子,她是不稳定的,很快衰变成两个小粒子,自旋分别是“左”和“右”。根据量子理论,只要我们不观察,每个粒子都处于左/右可能性叠加的混合状态。我们在宇宙两端分别观察两个粒子,如果粒子A随机选择左,那么粒子B一定会坍缩成右,这就是超过光速的信号传播。

波尔对EPR佯谬的应对:爱因斯坦一直先验地认为有一个经典的“实在”影像,假定EPR的两个粒子在观察之前分别都有一个“客观”的自旋状态。但波尔认为,在观测之前,自旋的粒子是不存在的,这不能用经典语言来表达,只能用波函数描述。观测之前,两个粒子—-无论间隔多远—-仍然是互相关联的整体!它们仍然必须被看作母粒子分裂时的一个全部,在观测之前,这两个独立的粒子是不存在的,更谈不上客观的自旋状态。

“当我们不观察时,月亮是不存在的”,准确地说,如果我们转头不去看月亮,那一大堆粒子就开始按照波函数弥散开去。月亮的边缘开始显得模糊而不确定,它逐渐“融化”,变成概率波扩散到周围的空间里去。要是不观察月亮,它就从确定状态变成无数个不确定的叠加。不观察它时,一个确定的、客观的月亮是不存在的。但是一回头,一轮明月便又高悬空中,似乎什么事也没发生过一样。
不得不承认,这种说法有强烈的唯心主义色彩,就像 George Berkeley 的名言“存在就是被感知”,可以说,“存在就是被测量”
也像东方王阳明一样“当你未看此花,此花与汝归于同寂;你来看此花时,此花一时明白起来”

薛定谔的猫

我们见识到了量子论那种令人瞠目结舌的性质,但突然谈论起宏观事物比如猫也处于某种“叠加状态”,任谁都要感到一点畏首畏尾。
如果猫能说话,它会描述这种二象性的感觉吗?它会不会说,“是的,我当时变成了一缕概率波,我感到自己弥漫在空间中,一半已经死去,而一半还活着。这真实令人飘飘然的感觉,你也来试试看?”

引入意识

冯诺依曼。当我们用仪器A去测量电子时。电子坍缩不假,但仪器A陷入某种左/右叠加的量子态中,如果用仪器B去测量仪器A,那么仪器A坍缩,仪器B陷入模糊不定中,整个链条中有一个最后一个仪器处于不确定状态,这叫“无限后退”(infinite regression)。从另一个角度看,如果把测量仪器加入到整个系统中,那么整个大系统的波函数从未彻底坍缩过。
难道说,人类意识(consciousness)的参与才是波函数坍缩的原因?只要它还没有“被意识到”,波函数便总是留在不确定的状态,仅仅在仪器之间转移罢了。冯诺依曼看来,波函数可以看做希尔伯特空间中的一个矢量,而“坍缩”是它在某个方向上的投影。然而是什么造成这种投影呢?难道是我们的自由意识?

换句话说说,一台仪器无法“意识”到自己的指针向左还是向右,一只猫无法“意识”到自己是活着还是死了,但是你和我可以“意识”到电子究竟是左还是右,我们是生还是死,所以到我们这里波函数终于彻底坍缩了,世界终于变成现实。
意识这种虚无缥缈的概念竟然要占领神圣的物理领域,成为理论的核心吗?

波函数是自然界最基本层次上的物理规律,而“意识”所遵循的规则,是大量原子的组合才可能体现出来的整体效果,是相当高层次。把两者联系起来似乎是一种层面上的错乱。

如果说“意识”使一切从量子叠加态中脱离,成为真正的现实的话,那么我们不禁要问一个自然的问题:当智能生物尚未演化出来之,这个宇宙还没有“意识”的时候,它的状态是怎样的呢?难道说,第一个有意识的生物的出现,才使得从创生起至那一刹那的宇宙历史在一瞬间成为现实?难道说“智能”的参与可以在那一刻改变过去,而这个“过去”甚至包含它自身的演化历史?

惠勒实验

惠勒延迟选择实验(Wheeler’s delayed choice experiment)是物理学家约翰·惠勒在1979年提出的一个思想实验,它属于双缝实验的一种变形,该实验很好地体现了量子力学与传统实在观间的巨大分歧。

实验是按如下方式进行的:从一光源发出一光子,让其通过一半镀银镜,光子被反射与透射的概率各为50%。之后,在反射或透射后光子的行进路径上分别各放置一反射镜A和B,使两条路径反射后在C处汇合。而C处则放有两探测器,分别可以观察A路径或B路径是否有光子。此时只有一个探测器能够测得光子,即能确定光子走的是哪一路径(A→C或B→C)。

而如果在两个探测器前再放置一个半镀银镜,可以使光子自我干涉。如适当调整光程差,可使得在某一方向(A或B)上干涉光相消,此方向上的探测器将无法收到信号,另一方向上的探测器则必定会接收到信号。按量子力学理论,这说明光子同时经过了两条路径。

事实上,我们可以在光子已经通过A或B后再决定是否放置第二块半镀银镜(此即实验名称“延迟选择”的由来)。如不放置,则根据前一种情况,光子只通过一条路径;如放置,则根据后一种情况,光子通过两条路径。也就是说,观察者现在的行为可以决定过去发生的事,而这一结论是与传统实在观相违背的。

哥本哈根学派对此的解释是,我们不能将观察仪器与观察对象分开来讨论,尽管实验中的两种情况只有最后部分不同,但这局部的变化使得整个物理过程发生了改变,这两种情况其实是两个完全不同的实验。玻尔对此就曾说:“事实上,在粒子路径上再加任何一件仪器,例如一个镜子,都可能意味着一些新的干涉效应,它们将本质地影响关于最后记录结果的预言。”

宇宙的历史,可以在它实际发生后才被决定究竟如何发生。这样一来,宇宙本身由一个有意识的观察者创造出来的也不是什么不可能的事。虽然宇宙已经演化了几百亿年,但某种“延迟”使得它直到被一个高级生物所观察才成为确定。我们的观测行为本身参与了宇宙的创造过程,这就是所谓的(The Prticipatory Universe)。
这实际上是某种增强版的“人择原理”,各种宇宙常数首先是一个不确定的叠加,被观测者观测后才变得确定,但这样一来它们就必须保持在某些精确的范围内,以便创造一个好的环境,令观测者有可能在宇宙中循环:我们选择了宇宙,宇宙又创造了我们。意识的存在反过来又创造了它自身的过去。

2. 多重宇宙解释(MWI)

抛开怪异的哥本哈根解释,退回到波尔和爱因斯坦,重新看看有没有其它路。
Many Worlds Interpretation(MWI)波函数无须坍缩,事实上两种可能都发生了,只不过表现为整个世界的叠加:在一个世界中人们发现电子通过了左边的狭缝;在另一个世界,人们观察到电子通过了右边的狭缝。

在高维空间上任取两个向量,其几乎垂直
当我们只谈论微观物体时,牵涉到的粒子数量极少,对应希尔伯特空间维数相对较低。一旦引入某种观测仪器,或者人去观测,我们就牵涉到一个维数极高的希尔伯特空间。在这样一个高维空间中,两个“世界”之间的联系呗自然地磨平了。它们互相正交,彼此失去了联系。
以双缝干涉实验为例,MWI 认为存在两个“世界”,通过左缝 AND 通过右缝,宇宙态矢量分别在这两个世界(“左”世界和“右”世界)上投影,但因为两个世界的维度都太低,所以大概率不正交,每个世界都还能清晰地“感觉”到另一个世界的投影。这两个世界彼此“相干”,因此电子能够同时感觉到双缝而进行自我干涉。
当我们进行观测时,我们本身海量的粒子加入系统,命名为“我们感知到电子在左”世界,或者“知左”世界。“知左世界”和“知右世界”的维度远远高于“左世界”和“右世界”,因此这两个世界戏剧性的变成基本正交而互不干涉,“知左世界”没有了“知右世界”的投影,就无法感知到对方了。这个过程叫做 “离席”或者“退相干(decoherence)”
量子叠加态在宏观层面上瓦解,正是退相干的直接后果,这也是为什么现实世界中一旦感知到“电子在左”,就无法感受到“电子在右”。宏观和微观的关键区别就是牵涉到的维度不同

这里说的空间、维度,指的是量子态矢量所涉及的希尔伯特空间,而非真实时空。所有“世界”都存在在同一物理时空中,而不是存在一些超时空空间

以上过程完全可以用数学严格表达:当复杂系统与环境干涉后,它的“密度”矩阵迅速对角化而退化为经典概率。

MWI 理论的好处显而易见,无须再求助于“观测者”或者“意识”了,整个宇宙严格按照波函数演化。薛定谔的猫也摆脱了又死又活的煎熬,而改为自得其乐地生活(一死一活)在不同的世界中。大自然也不必在“观测者”的阴影下战战兢兢地苟延残喘,直到某个拥有“意识”的主人赏了一次“观测”才得以变成现实,于是宇宙本身重新成为唯一的主宰
WMI 理论的一个副产品是,它重新回到了经典的决定论:宇宙只有一个波函数,它按照薛定谔方程唯一确定地演化,也就是说,给定某个时刻t的状态,就可以从正反方向推演,得到系统在任意时刻的状态。在WMI 框架下,上帝不掷骰子了。对于凡夫俗子、芸芸众生来说,因为我们纠缠在红尘之中,与生俱来的限制迷乱了我们额眼睛,让我们只看得见某一个世界的影子。而在这个投影中,现实才显得随机、跳跃、令人惊奇。

可证伪性

卡尔波普尔。 可证实几乎是不可能的,因为要证实必须观察全部案例。对待科学的态度是可证伪但尚未证伪,就暂且接受它为可靠的。不过它必须随时积极面对证伪。
亨普尔悖论。对于命题“所有乌鸦都是黑的”,每次我们见到一只黑乌鸦,都会增加这个命题的正确性,直到遇到一只不黑的乌鸦为止。我们知道一个命题与它的逆否命题等价,“所有乌鸦都是黑的”这个命题的逆否命题是“凡是不黑的都不是乌鸦”,那么我们遇到一只白猫后,就略微增加了这个命题的正确性。
这样下次导师让你去野外考察证明“昆虫都是六只脚的时候”,你大可不必出外风吹雨淋,而是坐在屋里考察大量“不是六只脚的都不是昆虫”(桌子、椅子、台灯…)的案例,你就为这个命题做了同样的贡献。

量子自杀实验

Hans Moravec,Vruno Marchal等人(20世纪80年代末)提出的。实际上是薛定谔猫的真人版。
对于薛定谔的猫,哥本哈根解释是:在我们没有观测之前,猫是“又死又活”的,观测值后猫的波函数坍缩,猫要么死要么活。WMI声称:每次实验必定同时存在一只活猫和一只死猫,只不过它们同时存在于两个平行世界中。

假如使用量子机制做一把枪(半镀银或衰变原理),对着自己来一枪,枪有可能“砰”或“咔”。根据哥本哈根解释,就算你运气非常好,你也最多听到几声“咔”后最终死掉。根据 MWI ,必定有一个你听到“咔”,听到“砰”的那位立即死掉,什么感觉都没有了,对应的世界对“你”就没什么意义了。对你来说,唯一有意义的世界就是你活着的世界。
所以,从 人择原理 角度讲,对你唯一有意义的“存在”,就是你活着的世界。你永远只会听到“咔”而继续活着,你永远不死。虽然在别的世界中,你已经尸横遍野,但那些世界对你没有意义。
但只要你把枪口挪开,你就有会听到“砰”了,因为这些世界重新对你恢复了意义。
所以,对于这位测试者来说,假如他一直听到“咔”,他就可以很大程度上确信, MWI 是正确的。假如他死掉了,那么哥本哈根解释就是正确的。不多这已经没有意义了,人都死掉了。
但很可惜,就算你发现 WMI 是正确的,这也只是对你一个人而言。对旁人来说,事实永远都一样:你最终被“砰”了。留下人们继续争论,到底按照哥本哈根解释,你已经永远从宇宙消失(坍缩成死亡),还是按照 MWI ,你仍然在某个世界中活的逍遥自在。而且,因为各个世界之间无法相互干涉,你永远也不能冲那个世界来到这里,告诉我们 WMI 是正确的

你可能对这里的人择原理困惑。因为枪一直“咔”的概率极小,为什么枪会“必定”这样行动呢?因为“对你而言”隐含了一个假设,“你”必须存在!
举个例子,加入你是男性,你必定发现这样一个有趣的事实:你爸爸有儿子,你爷爷有儿子,你曾祖父有儿子,一直上溯到n代主线,不管历史上冰川严寒、洪水猛兽、兵荒马乱、饥饿贫寒,他们不但存活,而且子嗣不断,始终有儿子。这是个很小的概率,一个奇迹般的事件,但对你来说,确是“必须”的。

实际上,我们不需要一个量子的枪,因为所有的凶器都是一群符合薛定谔波动方程的粒子,总有一个极小的概率,凶器上的所有粒子发生了量子隧道效应,以某种方式丝毫无损地穿过身体,从而保证人不死!虽然概率极小,但并不是不可能事件,一定会有一个世界发生,但对他的“主观视角”来说,他一直活着!不管什么方式,跳楼也好,卧轨也好,上吊也好,总有一个世界,他怎么也死不掉。
这就是所谓 量子永生,从主观视角看,不但一个人永远无法自杀,事实上他一旦开始存在,就永远不会消失!最后我们得到一个推论:一旦一个“意识”开始存在,从它自己的角度看,它必定永生!(天啊,MWI 最后也扯到“意识”了)
这是最强版本的人择原理,也称为“终极人择原理”

关于“意识”的连续性,有人继续推演,它不但始终存在,而且永远“连续”,也就是说,我们不应该有“失去意识”的时候(如睡觉或昏迷)。但是,其一也许确实存在一些永不睡觉的世界。其二似乎展示沉睡后苏醒,似乎对“意识”来说不能算作“无意义”。其三,还不能定义多个世界中的“你”究竟是什么,也许现实时空中的你不过是一个高纬态矢量的一个切片而已。总之,这里面的逻辑怪圈层出不穷,而且没什么事可以检验的。卡尔波普尔对此不会感到满意的。

关于实验本身,不建议你去尝试。首先实验的结果也只有你一个人知道。其次,要是哥本哈根解释是对的,你就呜呼哀哉了,那就亏大了。还有,就算你在枪口前真的不死,你也无法判定 MWI 是正确的,也许仅仅是你运气好而已。

3. 隐变量

哥本哈根解释通向“意识怪兽”,MWI 解释通向“精神分裂”,退回去继续看看有没有其它路
隐变量理论(Hidden Variable Theory)玻姆的理论中,把电子想象成这样:它本质上是一个经典的粒子,但以它为中心散发一种势场,弥漫到整个宇宙。当电子向双缝进发时,势场会在到达之前便感应到双缝的存在,指导电子的行为。
玻姆的理论有些缺点。看起来比量子力学臃肿,不像量子力学那样漂亮而简洁同时在实际中管用。并且假设电子具有确定的轨迹,同时因为隐变量的扰动关系,我们绝对探测不到,这又违反了奥卡姆剃刀原理。而且玻姆的理论放弃了定域性(Locality)(定域性指,在某段时间内,因果关系必须维持在一个特定区域内,而不能超越时空瞬间作用,任何信息的速度上限是光速)

贝尔不等式 $P_{xz}-P_{yz}\leq 1+P_{xy}$
EPR谬误中,满足贝尔不等式,说明是经典世界;不满足就是量子世界
1982年,爱因斯坦输了.1990年,GHZ测试(Greenberger,Horne和Zeilinger)不用贝尔不等式再次否认了定域实在。
定域的隐变量理论是不存在的,要么放弃定域性,要么放弃实在性。
如果放弃实在性,就回到了量子论的老路上,进而有两个选择:要么打垮决定论,采用哥本哈根解释,要么保留决定论,采用MWI。
如果要保住实在性,就必须放弃定域性,可以建立起一个放弃定域性的隐变量理论。但是代价是突破光速带来的种种悖论。

4. 系综

系综解释(the ensemble interpretation)物理量只对于平均状况才是有意义的,对于单个电子,它是无意义的。
系综和隐变量理论有某种相同的文化背景。
隐变量理论在做出“量子论只不过是统计解释”这样的论断后,试图找到背后那个更终极的理论.系综认为,剩下的未知领域不需要探索了,因为根本不存在。我们的宇宙只有“系综”,或者说“事件的全集”是有物理意义的.

单个电子的轨迹,这是一个没有意义的物理概念,正如“事件被创建之前1秒”,“比光速快一倍”,“比绝对零度低一度”这样的名词。
系综解释是一种非常保守和现实的解释,保留量子论的全部数学形式,划定理论使用界限,从而逃避那些形而上的探讨。

5. GRW

“自发定域理论”(Spontaneous localization)
整个系统中的粒子实际上是纠缠在一起的,少数几个粒子的自发定域会非常迅速地影响整个系统,造成大规模的自发定域。虽然每个粒子平均需要10亿年才能自发定域,但对于含很多物体的系统而言,很快就会发生定域。使得自己的位置从弥散开来变成精确地出现在某个地方,这里面既不要“观测者”,也不牵涉到“意识”,它只基于随机过程。
GRW的计算时完全基于随机过程的,不引入如“观测使波函数坍缩”之类的假设。其与“坍缩”类似的概念,实际上指的是一个粒子的位置从一个非常不精确的分布变成一个比较精确的分布。哥本哈根解释认为,只要一观测,系统的位置就从不确定变成完全确定了。GRW认为,不需要观测,仅仅是很宽的分布曲线,变成很尖的分区曲线。
根据 GRW 理论,在任何时候,“你”都填满整个宇宙,只不过大部分你还在某个地方。
GRW还抛弃了能量守恒,自发地坍缩使这样的守恒不成立,但破坏如此之小,以至于人们注意不到。
在双缝干涉实验中,完全可以减少探测装置的粒子数量,使其一年不定域。但一旦我们去观测,就把大脑牵涉进系统了。关键是大脑足够“大”(有没有意识道不重要),使得光子精确定位。推而广之,只要大脑足够大,看什么都不会出现量子现象。如果拿很复杂的仪器去测量,也是同样效果。
最后,薛定谔方程是线性的,GRW用密度矩阵方程取代它后,整个理论体系变成非线性的。

GRW 很可能会在未来证否,因为我们已经目睹了很多试图推翻量子力学的理论惨死(如定域隐变量理论)

5. 退相干历史

实际上是WMI的加强版
WMI认为,历史演化中,会出现越来越多的世界,历史有一个,世界有很多个。
但有人认为恰好相反,世界只有一个,但历史有很多个

“通过左缝”和“通过右缝”这两个历史是相干的,其概率没有可加性
事实上对电子的所有路径求积分,便可计算从起点到某点的概率,其中所有轨迹都是互相干涉的
好比,比赛的精确比分无法计算,且不满足可加性,但路径积分后的“胜平负”事件就退化为经典事件。
同时经历多个历史,最后退相关成为一个事件

批评者认为,你可以定义“胜平负”为一组事件,我也可以定义总进球为一组事件,那么就又回到哥本哈根解释了:结果和观测手段有关。

《复杂》

作者 梅拉妮·米歇尔

17世纪以来,还原论在科学中占据主导地位。将问题尽可能细分,细分到能用最佳方式将其解决,然后上升,直到最复杂的知识。

20世纪有相对论和量子力学这样伟大的发现,但也见证了还原论梦想的破灭。因为在接近人类尺度的复杂现象上无能为力。例如天气预报、生物、疾病、经济、政治、文化、现代通讯。
所以出现了混沌、系统生物学、进化经济学、网络理论。需要交叉学科(包括控制论、协同学、系统科学),才出现复杂系统科学。

背景和历史

复杂性是什么

复杂系统试图解释,在不存在中央控制的情况下,大量简单个体如何自行组织成能够产生模式、处理信息甚至能够进化和学习的整体。

一些例子

  • 蚂蚁。单个行军蚁几乎没有视力、智能,但可以执行复杂的动作,形成 有“群体智能(collective intelligence)”的“超生物(superorganism)”
  • 大脑。最为神秘的是,所谓 智能和意识是从不具有智能和意识的物质中涌现出来的
  • 免疫系统。相对简单的部分组成信号传递和控制的复杂行为。
  • 经济。人和公司组成“简单、微观的”个体,而整个市场行为复杂且无法预测。
  • 万维网。每个人都看不到网络的全貌,只是简单的发布网页,并将其链接到其它网页。

复杂网络的共性

  • 复杂的集体行为。
  • 信号和信息处理。都利用内部和外部的信息,同时也产生信息。
  • 适应性。都通过学习和进化进行适应。

复杂系统是由大量组分组成的网络,不存在中央控制,通过简单运作规则产生出复杂的集体行为和复杂的信息处理,并通过学习和进化产生适应性。

如果系统有组织的行为不存在内部和外部的控制者或领导者,则也称之为自组织(self-organizing)。由于简单规则以难以预测的方式产生出复杂行为,这种系统的宏观行为有时也称为涌现(emergent)。
这样就有了复杂系统的另一个定义:具有涌现和自组织行为的系统。
复杂性科学的核心问题是:涌现和自组织行为是如何产生的。

动力学、混沌和预测

这里作者回顾了物理历史。亚里士多德、哥白尼、伽利略、开普勒、牛顿。
然而,两个发现打破拉普拉斯精确预测的梦想:海森堡的测不准原理和混沌
所谓混沌性指的是初始值有微小的不精确,会导致长期计算结果的巨大误差。
(自然界也有很多不混沌的现象,你只要大概知道初始值,就能预测个八九不离十。这个叫做线性系统。)

庞加莱三体问题。

逻辑斯蒂映射

$x_{t+1}=R x_t (1-x_t)$

以兔子数量为例,书上用数字说明的,这里自己用公式试着推一下。假设出生率和死亡率分别是a, b,那么t+1时间的兔子数量 $x_{t+1}=(1+a-b)x_t$,其中,a, b 还与$x_t$有关,假设这个关系是最简单的线性关系,于是 $x_{t+1}=R x_t (1-x_t)$

吸引子。

  • 随着R的不同,“吸引子”数量不同。
  • 随着R提高,吸引子数量提高。
  • 当R大于某个无理数时,吸引子变成无穷多个

所以,逻辑斯蒂映射有三种行为

  • 不动点
  • 周期
  • 混沌

逻辑斯蒂分叉图,就不在这里画了。
“费根鲍姆常数” 在不同的混沌系统中有一定的普适性。

混沌系统的特点

  • 混沌可以来自确定性系统,无须随机源。
  • 简单的确定性系统也可以混沌
  • 不同的混沌系统有一定的普适共性。“混沌中的秩序”,例如费根鲍姆常数。导致混沌虽然在细节上不可预测,但在更高层面上却是可预测的。

熵。热力学第二定律是唯一区分过去和未来的基本物理定律。

麦克斯韦妖

设计一个开关,让速度快的分子可以往右走,速度慢的分子可以往左走,这样熵就减少了。麦克斯韦认为,这说明热力学第二定律不是一条定律,而是大量分子下的统计效应。

为解决这个悖论。西拉德将熵和信息联系起来,认为测量过程获取比特,这需要能量,必然产生熵。整个系统仍然遵守热力学第二定律。
重新定义信息比特的概念:通过回答是/否获得的信息。
在当时,人们基本把物理和精神过程视为完全独立,并不觉得“小妖”的智能会有热力学影响。但量子力学发现观察者的影响后,人们才意识到这一点。

班尼特证明,可以用一种巧妙的方式弄清楚分子的快慢,并且不增加熵。这套理论成为 可逆计算(reversible computing) 的基础,理论上可以进行任何计算而不耗费能量。
不是测量行为,而是擦除记忆的行为,增加熵。

历史:

  • 克劳休斯 1865年定义熵。
  • 玻尔兹曼 开创 统计力学,搭建了分子(微观对象,牛顿定律)和热力学(热,能量,熵)之间的桥梁。
  • 香农信息论 (1948年)定义了信息,证明了一个定理,定理给出了给定通道的最大传输率(信道容量,channel capacity)。香农对信息的定义是消息源的可预测性。

计算

希尔伯特提出的问题。

  1. 数学是不是完备的。也就是说,是不是所有的数学命题都可以用一组有限的公理证明或证否。
  2. 数学是不是一致的。也就是说,是不是可以证明的都是真命题。
  3. 是不是所有命题都是数学可判定的。也就是说,是不是所有命题都有明确程序可以在有限时间内告诉我们命题的真假。

问题解决。

  1. 哥德尔不完备定理:如果第二个问题的答案是“是”,那么第一个问题的答案是“否”。如果算术是一致的,那么算术中必然存在无法被证明的真命题。
  2. 图灵停机问题。计算存在极限。第三个问题的答案是否定的。

进化

世间一切都是熵增过程,但是看起来生命正好相反。
以前人们觉得这是宗教的神迹。直到达尔文提出了进化论。

进化论的发展过程

  • 布冯认为地球年龄远远大于圣经上说的6000年
  • 拉马克
  • 马尔萨斯人口论
  • 亚当斯密《国富论》,给达尔文提供灵感
  • 华莱士独立得出进化论思想。
  • 孟德尔解释性状变异是如何产生的。
  • 现代综合。认为进化是渐进的,变异是无偏好的。
  • 古尔德和埃尔德雷奇

如何度量基因复杂性

  • 基因 数量、碱基对数量。缺陷明显,人类碱基对数量与变形虫差不多。
  • 香农熵
    缺点:等量、完全随机的碱基对,香农熵复杂度超过人类的碱基对。
  • 算法信息量。定义为能够产生对事物完整描述的最短计算机程序的长度。
    缺点一样,对于完全随机的碱基对,复杂度反而高。
  • 有效复杂性(effective complexity)。包含在描述中的信息量或规则集合的算法信息量。
    例如,随机序列的有效复杂性为0. 人们探索得到的物理规律,最简洁的信息量越高。
    缺点是太主观,相同的事物,对于每个人的复杂性不一样。
  • 逻辑深度(logical depth)复杂性。高度有序的序列很容易构建,完全随机的序列也很容易构建,但是可发育成生物的序列就极难构建。定义为生成某个事物时需要处理的信息量(多个图灵机可以生成某个事物时,用最短的那个)。
    优点是有很好的逻辑特性,符合直觉。缺点是没有给出度量实际事物复杂性的方法,因为没有给出构造最短图灵机的方法。
  • 热力学深度(thermodynamics depth)复杂性。思路同上,也是越难构造,信息量越大,不同的是构造不用图灵机而用热力学。首先确定“产生这个事物最科学合理的确定事件序列”,然后测量“物理构造所需热力源和信息源的总和”。
    例如,要确定人类基因组的热力学深度,需要列出从第一个生物到人类的所有演化事件,这样人类基因的热力学深度就远比变形虫高了。
    缺点同上,对于复杂的事物,基本算不出来热力学深度。
  • 用计算能力度量复杂性。系统处理输入时的行为等同于多复杂的图灵机,以此定义复杂性。
  • 统计复杂性(statistical complexity)。度量用来预测系统将来的统计行为所需的系统过去行为的最小信息量。这个复杂度与香农熵有关。
    在这个定义下,随机序列复杂性很低,因为其未来的统计行为就是“随机序列”。
  • 分形维度(fractal dimension)复杂性
    解释一下分形维度。把一个几何结构沿着某个度量分为a份,最终得到b个一样的拷贝,那么维度就是$n=\log b /\log a$.例如一维线段,$n=\log 2 /\log 2$. 二维$n=\log 4 /\log 2$. 三维$n=\log 9 /\log 2$. 这里都把先划分两段,其实划分多段也一样。
    科勒曲线切开后,每个直线段是之前的1/3长,但得到4个拷贝。$n=\log 4 /\log 3$

遗传算法、蚁群算法、免疫优化算法

这个已经写了好几篇博客了,这里不写了。

元胞自动机

元胞自动机也是冯诺依曼发明的,称为“非冯诺依曼结构”
生命游戏。
生命游戏可以运行标准计算机的程序。

元胞自动机的最终状态有4种:

  • 停在一个最终的图像上
  • 在几个图像之间循环
  • 产生看似随机的行为
  • 局部结构简单,但这些结构会移动。实际上这是一种通用计算机。

因此

  1. 思考自然界中的过程的正确方法是将它们视为计算。
  2. 像规则110这样极为简单的规则(或“程序”)都能进行通用计算,这表明通用计算的能力在自然界中广泛存在。
  3. 通用计算是自然界中计算的复杂性的上限。也就是说,自然系统或过程不可能产生出“不可计算”的行为。
  4. 自然界中各种过程实现的计算在复杂程度上都几乎等价。

冯诺依曼的好处是编程语言和机器码可以毫无歧义的互相转化。

囚徒困境算法

最优策略不是纳什解,而是“善良、报复、宽恕、明确”

网络科学

关注的不是事物本身,而是他们之间的关系。
例如,生物的复杂性主要来自基因之间交互作用的复杂性。

网络思维还帮助厘清了一些看似无关的科学和技术之谜:为什么生物的生命期与它们的大小基本上遵循一个简单的函数?为什么谣言和笑话传播得如此之快?为什么电网和万维网这样大规模的复杂网络有时候非常稳健,有时候却又容易出现大范围崩溃?什么样的事件会让本来很稳定的生态群落崩溃?
这些问题看似毫不相干,网络科学家却认为答案反映了各种网络的共性。网络科学的目的就是提炼出这些共性,并以它们为基础,用共同的语言来刻画各种不同的网络。
网络科学家也希望能理解自然界中的网络是如何发展而来的,如何随时间变化的。
对网络的科学理解不仅会改变我们对各种自然和社会系统的理解,同时也会帮助我们更好地规划和更有效地利用复杂网络,包括更好的网络搜索和万维网路由算法,控制疾病传播和有组织犯罪,以及保护生态环境。

一个网络如果只有少量的长程连接,相对于节点数量来说平均路径却很短,则为 小世界网络
小世界网络经常表现出高度的集群性。

PageRank

PageRank 数学方面的详解在另一篇博客里写过,这里不重复。

in-degree 为 k 的网页的数量正比于$k^{-2}$,其特点是

  • 无尺度。例如,你绘制K=5到K=10000的图像,发现与原图像相似(自相似)
  • 不是一个正态分布,这让 PageRank 效果良好
  • 小世界。也就是说,相对于节点也边的数量来说,平均路径很短。
  • 节点被删除时候具有稳健性(稳健性是指,仍然保持度分布多样性、平均路径很短、集群性很高)。
    这是因为随机删除节点,大概率删除的是不太重要的节点。
    如果被删除的是中心节点,性质可能变化很大。

真实的网络

  • 大脑。具有小世界特征,因为既要有复杂性,又不能让大脑太大。
  • 基因调控网络。
  • 代谢网络。同样保证了鲁棒性。
  • 流行病。例如,为了解决艾滋病传染网络,移除中心节点。不过中心节点不太容易直接找到,设计一个小算法:抽样后,让样本人群报告自己的性伴侣,重合率高的就是中心节点。
  • 生态和食物网。
  • 科学知识
  • 技术

无尺度是如何产生的?
preferential attachment 获得新链接时,连接度高的节点比连接度低的节点更有可能得到新链接。

这里,我根据上面这句话的描述,写了个程序模拟一下看看

生成节点

n_points = 1000 # 网络中的节点个数
n_out_degrees = 20 # 每个节点的 out_degree

net = {i: np.random.randint(0, n_points, size=n_out_degrees) for i in range(n_points)}


def cal_in_degree(net):
    '''
    计算网络中每个节点的in-degree
    '''
    in_degree_list = [0] * n_points
    for i in net:
        for j in net[i]:
            in_degree_list[j] += 1
    return in_degree_list

plt.hist(cal_in_degree(net))

初始的 in-degree 显然是一个正态分布

下面迭代整个网络,迭代的原则是:in-degree 更高的节点,更有可能被指向

# 随机选取n_select个节点,然后找到他们的一度连接。放一起作为集合来抽样,获取下次迭代的 out-points
n_select = 5

net_tmp = copy.deepcopy(net)
for iter_num in range(10):
    for i in net_tmp:
        points_selected0 = np.random.randint(0, n_points, size=n_out_degrees)
        points_set1 = [points1 for points0 in points_selected0 for points1 in net[points0]] + list(points_selected0)
        points_selected1 = np.random.choice(points_set1, size=n_out_degrees)
        net_tmp[i] = points_selected1
    net = net_tmp

plt.hist(cal_in_degree(net))

对网络科学的一些审慎态度

  • 无尺度分布被滥用。有些研究中用到无尺度分布假设,后来被发现其实不是。
  • 导致无尺度的原因很多,未必是 preferential attachment
  • 模型过度简化。所有节点都当做一样的,所有的边类型和强度也当做一样的。

连锁失效。我们已经知道,网络有鲁棒性,某个节点失效后,其工作量会转移到其它节点上。这有可能让其它节点负荷过重而失效,进而又把工作量转移到其它节点上。最终导致整个网络崩溃。
(一个小节点失效,可能导致整个网络崩溃)

比例之谜

我们研究一下生物的大小与代谢率的关系。

  • 直观感觉,代谢率与体重成正比,但这显然是错的。因为照此看来,河马表皮面积是老师的2500倍,但代谢是老鼠的125000倍,恐怕河马要烧起来
  • 那么,代谢率是否与表面积成正比呢?也就是说,代谢率与体重的2/3次幂成正比。(surface hypothesis)
  • 实际数据表名,这个代谢率与体重的3/4成正比。(Kleiber’s law)
  • 进一步的,生命与体重的关系,是一个指数1/4的幂函数
  • 平均心率与体重,是一个-1/4的幂函数

代谢比例理论(Metabolic scaling theory) 上述比例来自分形结构,某种量(如代谢率)遵循幂律分布。
这个理论某种程度上具有普适性。

有一些批评:

  • 四分幂定律并没有那么普适。大狗和小狗寿命差不多。有人认为2/3才是正确的回归结果。
  • 比例是对的。但理论错了。

进化中的复杂性

  • 前面说过,基因的表达过程是一个复杂网络。
  • 基因旁边有开关蛋白质。
  • 这导致生物剧烈变化是可能的
  • 以前人们认为是趋同进化的现象,其实是开关造成的。
  • 复杂网络的状态可能是不动点、循环、混沌。考夫曼认为,基因要同时保持活性和稳定性(不能完全是不动点、循环、混沌),所以应当在混沌的边缘

《信号与噪声》

预测

印刷机的发明,信息极大丰富,人反而未必更接近真理

  • 2005年《为什么大多数发表的研究成果都是骗人的》
  • 1970《未来的冲击》:尽管世界本身正在走向分化,变得更加复杂,但是人类扔会以坚持自身看法的方式使这个世界变得简单,这便是我们的防御机制。 所以“信息越多,越靠近真相”这一信条被颠覆了
  • 《银河系漫游指南》:可能会出错的事情和完全不可能出错的事情,区别在于后者一旦出错,往往无法挽回

刺猬型专家和狐狸型专家

狐狸型专家的原则

  • 原则1:用概率方法思考问题
  • 原则2:今天的预测是你以后人生的第一个预测。
    • 一个误解是:成功的预测不会改变。当然,如果你的预测结果每天都有巨大的波动,可能是一个不好的预示:要么模型不好,要么预测对象不具有预测性
  • 原则3:寻找共识。集体决策通常好于狐狸型专家培养出了一种仿效集体决策的能力:不停向自己发问。这就意味着要把很多不同类型的信息整合起来。

棒球比赛预测

一个好的棒球预测系统必须可以完成3项任务:

  • 考虑影响球员表现的外在因素
  • 区别对待技术和运气因素
  • 了解球员的表现如何随着年龄增长而发生变化的

球探的优点是能够获得更多的信息,缺点是容易被这些信息中的噪声干扰,掺杂个人偏见
数据怪才的缺点是:数据怪才也有偏见,一个致命的偏见是:如果某项因素很难量化,那么就视为无关紧要

大多数情况下,分类的方法非常奏效。可是,一旦遇到不易分类的信息,我们通常会无视它,或者对它错误的分类

天气预测

问题1:量子层面上的不确定性

测不准原理。
天气预测中,不用考虑这个因素。因为天气预测是分子层面的。

问题2:计算复杂度

在4维空间中,有限元的分辨率加倍,计算量增加到原来的16倍

问题3:混沌理论
  1. 系统是动态的。也就是说,一个时间点的动作会影响未来
  2. 非线性。

地震预测

主要内容是说,地震预测中,x难以获取,所以基本用y做时间序列。
肯定很难

经济预测

预测的难处之一在于,相关的两个经济变量之间未必互为因果
经济预测者面临三大基本挑战。

  1. 单纯依靠经济统计数据,很难判断起因和结果
  2. 经济始终在变化。单一经济周期的经济运行状况无法被用来解释未来经济的发展
  3. 经济学家以往的预测如此糟糕,所以他们预测所用的数据质量太差。

失业率是企业的信心的滞后指标,却是消费的领先指标
大数据时代,更容易把相关性当成因果律。然而,技术的进步无法掩盖人们对理论知识的缺乏。

传染病预测

预言的自我实现 报纸上“儿童孤独症”出现的概率,与发病率有极好的统计学相关性

一种agent建模方法:似乎是蒙特卡洛?模拟每个人的行为,包括文化、宗教信仰、习惯等等。

贝叶斯定理

国际象棋大赛

棋类比赛中,人与计算机都不可能计算到完全信息,所以所做的事情仍然是预测
因此,人机对战就是寻找彼此的盲点

扑克牌

财富是信号与噪音的结果
随着整体水平提高,菜鸟出局。高手也会变成被收割的菜鸟

股市

首先写了有效市场理论
然后提出了一个有亮点案例。
一个投资经理面对的决策:

  1. 买入股票,并且股市上升。会成为明星投资人,享受豪车游艇。
  2. 卖出股票,股灾来临。会成为天才,然而股灾中对天才的需求也是有限的。所以天才转战媒体、写书等。
  3. 买入股票,股灾来临。很幸运,你的同事也犯了同样的错误,华尔街的雇佣率减到80%。意味着你有80%可能保住工作。
  4. 卖出股票,股市上升。不但丢掉工作,再次被雇佣的概率微乎其微。

如果我是这位投资经理,即使股票50%概率崩盘,我也不会卖出股票。所有投资经理都是这么想的。所以大多证券公司避免“鹤立鸡群”

恐怖主义

书中介绍了一种对恐怖主义的预测模型。
这种模型参考了地震预测模型
横坐标是事件死亡人数(地震震级),纵坐标是发生频率
破窗理论实际上也是地震预测模型的推论。如果集中处理小的犯罪,那么大的犯罪也会减少。



您的支持将鼓励我继续创作!