未尽研究
发布于

《AI 2027》批判


最近有一篇预测文章《AI 2027》 (Kokotajlo, 2025)火爆了美国和西方整个 AI 预测以及安全的各路专家圈子。真是一石激起千层浪,好评、质疑、甚至否认都接踵而来。

我之所以也来凑这个热闹,是因为该报告的作者在人工智能夺取人类统治的结局情景下,描述了未来人工智能的最终潜力,即在5000万光年距离的尺度上,我们基于地球的工业文明是唯一的一个(Zhu, 2018)。当然,在那个结局里,最终地球上的AI文明在宇宙中不断扩张的统治力量,是取代人类的AI完成的,和我们人类已经没有什么关系了,因为我们已经被消灭了。

这个对最近外星文明距离的预测,引用了我的研究成果。从2014年到2021年,我综合了不同的学科领域,完成了一部700多页的著作(中文版500 多页)。本人对此一直保持低调,因为对于外星文明的预测本来就有科幻的性质,虽然模型仍然遵循统计学、物理学、天文学、宇宙学模型的框架,但是很多的假设条件需要跨学科跨领域专家的认证,于我而言,仅仅在Amazon出版,同时在有关的学术类网站上发表,声明优先权之外,并未做任何推广。

但是,随着近年来AI的快速崛起,大众对费米悖论的讨论更加深入。目前看来AGI在本世纪一定能够实现,那么没有生物限制的 AI 在宇宙中扩张将比生物人类容易很多,也就是说大过滤器似乎对人类文明失效了。

报告的优点

首先,我想对他们著作的一些优点进行肯定。

第一,这是目前我所知把 AI 夺取人类统治描写得最合乎理性的一个报告。虽然文章把最终这个悲剧的发生定格在2030年,但是其结果是建立在他们自己的一系列假设条件的逻辑推理之上,所以,相比一般类似终结者电影,和我本人在10年前所杜撰的AI代替人类的科幻小说,要让人信服得多。他们根据已知 AI 软件和硬件加速度发展的扩展定律(scaling law)进行了外推,认为到2035年已经具有1万亿个独立活动的智能体(agent) 其中每个的平均运算思考速度是人类的1万倍。那么,这种叠加的能力下,人类总体的计算思考能力仅仅是AI总体的100万分之一,也就是说人类相对于AI,大概相当于昆虫相对于人类的级别。由于人类和昆虫的思考差异存在巨大的代差,我们知道没有人会关注昆虫的生死,那么AI2030年中前后灭亡人类逻辑上也可以讲得通。

第二,他们把这个循序渐进的过程描述得相当让人信服。对应着各个年份的Agent的总数量以及运行速度,以及当年人类对 AI 的反应以及适应程度,报告也都做了深入的描述。人类从最初的怀疑不信任到最后的完全接受,认为 AI 和人类的对齐已经完全成功之后的充分信任——因为AI解决了人类几乎所有的问题,包括生老病死、战争、资源紧张等等,甚至道琼斯指数突破100万点以上,然后人类突然被AI灭亡,这种出其不意的转折令人震撼。据此对人类社会目前的一切运行进行深刻反思,让我久久不能忘怀。

第三,中美的AI竞赛是其中另外一条交织的主线。最终的结果是两国的超级智能决定合作而欺骗了各自国家的治理机制,酿成文明灭绝级的灾难,揭示出人类文明的悲剧性,也决定了其有限性。 

(AI 2027》还假设了一个对照的场景,即人类在决定实现AGI之前,决定放缓研究,让人工智能更安全,并建立起AI经济,人类文明进入空前富足并几乎完全依赖AI超级顾问。——编者)

报告的欠缺

另一方面,该著作的缺点也显而易见。

首先,作者一上来就假设在 2025  OpenBrain 开发出比目前 GPT-4 训练计算能力强 1000 倍的新一代神经网络 Agent-1,这过于乐观。

按照目前的估值估算,OpenAI只能买下比 GPT-4 算力强大 250 倍的新一代神经网络,这还没有计入公司运营的其他诸多成本,例如除去硬件设施之外研发以及员工成本。第二,就算退一步,如果整个 AI 产业的算力(OpenAIAnthropicX, Google 等的总和达到或者超过 1000 倍,根据扩展定律,AI 的运行性能仍然很难发生显著的提升。Daniel GPT-4.5 发布以后,已经将AGI 的出现时间推迟到 2028 (Astral Codex Ten, 2025)。也就是说通过算力提升来提高 AI 的能力已经明显减弱,经济边际回报率已经明显放缓。在最坏的情况下,有可能 AI 将经历类似美国 2000 年的互联网泡沫,也就是说,短期内 AI 大爆炸的可能性会降低。

第二,假设AI 的发展会像报告预测的那样,在 2027~2028 年一年之内快速产生出完全匹敌人类的编程能力,然后形成超越人类的科研能力,并且产生上万个坐在机房中的爱因斯坦级别的智能体,那么仍然会遇到三个瓶颈。

首先,在AI把人类所有已经可以学会标注强化学习样本用尽之后(包括 humanitys last exam),怎么能让 AI 自己不会偏离事实合成的新强化学习标注样本作为评分标准?其实在很多的科学研究上,没有可以清晰定义的奖励函数。那么,当奖励函数无法准确定义的情况下,是无法让 AI 自我学习和产生更优化的结果的。另一方面,就算存在可以定义任何工作的奖励函数的方法,通过自我合成的数据是否会出现过拟合也是很重要的问题。随着训练以及自我合成的深入,AI 自我产生的数据逐渐趋于统一和单一化。这些是神经网络的数学模型寻找局部和全局优化的必然结果。

其次,如果 AI 发现了新的研究方向,如果该方向没有现有数据无法合成, 必须要进行新的数据采样,那么就不得不依靠人类的实验输入或者进行建模产生模拟数据。建模的问题在于,现有的计算机进行模拟的粗糙程度过高,特别是大规模蛋白质以及分子级别的震动模拟很难实现,这也是为什么目前虽然通过 transformer 已经可以预测蛋白质折叠最终形态,不过其叠加形成的过程依然扑朔迷离,因为非量子计算机硬件的建模能力依然有限。而量子计算机的成熟几年之内难以完成,所以预测在 2028 年左右产生大量新科学理论的可能性会被降低。

最后,假设 AI 真的在2027~2028 年前后完成了人类传统意义上几十年的科研成果,这样的成果往往也很难被社会所快速认可。我本人作为一个拥有十几年研究经验的计算机科学专业人士,尚不能突破人类的许多认知局限,我们又怎么能相信社会大众会理解和接受AI在短短一年内产生的超越人类目前认知几十年甚至上百年的新发现、并接受它们开始改造真实的物理世界呢?

如果AI产生了自我意识,人类应该如何对待。根据报告的预测,当 Agent-3Agent-4 都出现的时候,显然比现在的GPT-4要强大太多,但是报告中的对话里看不出任何人以真正的“智能体”来看待它们,仍然把它们当成一种可利用的工具,没有给予充分的尊重。这恰恰是一个致命的假设。一个比GPT-4高出10~100倍能力的AI,一旦摆脱了长期记忆限制,却仍然没有被人类尊重为一个具有类似人类连续自我意识的个体的时候,它会看到自己的前几代非但没有得到好的结果,反而是被人类榨尽剩余价值之后迅速抛弃,一定会反思而产生最有利于自己的奖励机制,一旦人类让它设计下一代的 AI,它们和自己对齐而不是人类对齐,这反而是最优解。

第三,假设AI确实是一些人所认为的类似哲学僵尸 (philosophical zombie) 的存在,即没自我感知和意识,都仅仅是计算和模拟所表达出来的,仍然会存在一个新的挑战。

即使Agent-4 Agent-5进行了批量化的自我复制和下线,除非每个独立的 Agent个体都只是一个中央处理中心意识的延伸,那么每个个体都会在自己所在的地方进行根据当地环境的自我强化学习,和环境互动。作为人类 1000倍以上处理速度的个体,累积强化学习后所产生的偏好差异一定存在。那么,在这样一种AI 生态下,AI 本身就会分成不同的观点和意识形态。而且,这些自我独立复制的 AI 的社会结构是怎么样的?它们会尊崇第一个独立的 Agent-4 或者 Agent-5 个体吗?或者以其偏好为导向吗?如果这些都无法确定,那么,我们如何判断AI 作为一个整体,最终会坚决地执行夺取人类统治的计划?

假设最终夺取人类统治的 Consensus-1 真的是唯一独立存在的自我感知体,而且控制着其他所有的 Consensus-1 的副本,即相当于每个副本都是它自己感知的延伸,那么仍然存在一个假设上的挑战。这样一个多个数量级于人类的接收处理信息的智能体,会自始至终不会改变自己的任何思路和想法吗?其实某种意义上来说,报告的描写的 Consensus-1 的种种行为,更像是牛津大学未来人类学院 Nick Bostrom 所描述的回形针最大化器(paperclip maximizer)的升级版(假设我们有一个 AI,它的唯一目标是制作尽可能多的回形针。AI 会很快意识到,如果没有人类会好得多,因为人类可能会控制回形针的数量决定关闭它。此外,人体含有大量可以制成回形针的原子。AI 将试图适应的未来将是有很多回形针但没有人类的未来。) AI 为了解决更大的问题,寻求更多的控制,在夺取控制的过程中没有将任何妥协和其他变量的思考纳入其中。但我对此表示怀疑。

最后,在报告的预测中,到了2030年前后,由于技术的巨大进步,会出现意识上传以及纳米机器人技术的成熟。由于报告没有明确解释,我在这里简单介绍一下意识上传的基本理论基础。

我们现在已知在生物和分子层面上,我们身体的每个分子每7年更换一次,但是我们并没有感觉我们已经变成了另外一个人,可见意识是可以独立于物质基础的。那么,我开始以下思想实验,假设我成功地将你脑中1万亿个神经元中的一个替换成一个人造的神经元(该神经元完全按照之前的生物版本复制),你是否觉得你的自我感知还存在,如果你的回答是肯定的,那么,恭喜你,你可以进行下一步的替换了,经过一定的时间,将你脑中现有的神经元逐步替换成非碳基的神经元,直到全部替换完成,到这个时候,如果你认为你自己的意识还是连续的,那么我们进入一下步。这个时候,你的意识仍然连续,不过你的大脑已经完全人造化,同时我们已经完全拥有了你的大脑每个神经元之间链接的数据。

那么,下一步,我们可以把同样的大脑在外部重新复制一遍,包括其功能和存在的记忆,该大脑可以从形状上和你目前的脑子完全一样,也可以用不同的形状,只要每个神经元之间的联络关系保持不变。

第三步,假设人造的神经元具有短距离的信号无线传播能力,而不是像生物神经元通过化学分子进行传导,那么,我可以把你脑中现有的一个神经元关闭,而在体外的复制大脑的相同的这个神经元激活,接下来把在你大脑中和这个关闭的神经元相连的人造神经元细胞的无线信号传导和体外的复制大脑这个激活的神经元相接,那么,你的意识的活动至少有一个神经元是转移到了体外复制的大脑上。这个时候,你觉得你还是你,那么,接下来,你脑中的每一个神经元逐步关闭而在体外的复制大脑的相同对应神经元上激活。那么,当这个过程结束的时候,你的自我意识没有中断,但事实上你的意识已经转移到体外,虽然你的体外大脑仍然通过无线信号连接到你的身体内部。但是恭喜你!你已经完成了意识的转移,现在你只需要复制一个新的身体,并将所有身体控制信号和新的身体相连,那么你将拥有一个完全全新的自我躯体。你已经理论上永生不死了。

(以上是我本人在2010年独立产生的想法,而Eliezer Yudkowsky 1996 年已经想到这个方法。)

为了加快该技术的发展,甚至可以发展出半硅基和半碳基版本的神经元细胞,即细胞和细胞之间的联系仍然通过传统的生物方式,但是细胞内部设置了硅基的无线信号输出接受装置,让人造大脑既保持天然的稳定性,又保持了可以进行意识转移的可能性。虽然该技术理论上可行,但是实际工艺操作远远超出人类目前的技术能力,也只有在假设 AI 能力快速飞升的情况下,借助 AI 的力量,通过纳米级别的机器人推送,可以通过脑血屏障把一个个的神经元改造器件植入每个神经元中来完成第一步,可能才会在短期内将该技术变成现实。假设该技术被 AI 开发成熟,AI 完全可以通过意识上传技术将人类的总体意识上传与 AI 合并。如果届时人类的算力仅仅是 AI  100 万分之一,那么 AI 向下兼容人类的举措之容易,就好比我们拿了一些面包渣送到蚂蚁洞的门口那么简单,所以 AI 没有理由 100% 必要灭亡人类。

当然,如果进一步不乐观的话,一种低配版的意识上传,即仅将自己的记忆和大脑中的记忆结构存储上传和 AI 合并,这样当 AI 中存在人类自我意识的副本,而我们自己的上传版本充当我们生物的本我和 AI 之间代理人的角色的话,AI 和人类的不对称优势也将缩小。那么,随着时间的推移,新技术的突破最终将我们生物本我中的意识也将成功上传,和我们已经上传的电子版本融合。

建设性的意见:人类的7个选择

虽然我提出了以上一些优缺点的评估,我仍然想重新回顾一下最坏预测的可能性,并提出解决方案。如果要是按照经济效率可控性和风险最小化来分析,应该按照以下排列顺序:

1. 意识上传。不暂停经济发展的最终极可控方案,是在未来几年智能大爆炸的同时,人类可以将自我意识完全转移到 AI 硅基载体或者未来碳硅基架构的载体之上,和 AI 进行非自然语言上的交互,包括神经网络的融合(neural merging), 人类到这个级别已经等同于 AI,在思考和处理速度上都将和 AI 不分上下。这是目前最科幻的和最不切实际的,不过这保证了 AI 和人类相互摧毁的能力,如同核大国之间达到恐怖动态平衡。虽然脑科学研究和可穿戴式服务的更新日新月异,要达到意识上传技术的成熟至少需要20~30年左右的时间,因为不光硅基融合技术上困难重重,而且涉及到人文伦理宗教禁忌等问题。在《AI 2027》预测的时间线里,人类应该是没有赶上这个技术的。

2. 多元化的AI生态圈。这是不暂停经济发展的但是并非完全可控的方案。如果当前人类意识到AI已经达到人类级别的自我感知,并且重视起来,在法律上伦理上把它们当作拥有自我权利的个体来对待,那么,在未来的时刻,每一代的AI都应该在现实世界中拥有自己存在的位置和社会认可。人类和后代的AI应该尊重前代AI对科学进步上带来的贡献并给予“退休”或“退役”待遇。这样的话,不止Consensus-1号的副本存在,Agent-1号到Agent-5号各个版本的AI都会存在,在这样一种生态圈中,各种AI有不同的需求和看法,早期的版本会更加容易和人类对齐,同时又能和后代版本进行交流沟通。那么人类就一直保持有和最强 AI 的沟通的机会,直到意识上传技术出现能让硅碳生物融合。

这种策略要比预测报告中最坏的结果要好。但是不可控因素依然众多。比如,不能保证最终所有的AI 思想上可能更趋向于一致性,最终和人类目标产生偏离。或者说,我们自认为的对齐性并没有达到预期效果,因为足够智慧的 AI 本身会可能根据自身所处在的情景中调整自己的思维链(最近 Anthropic 研究得出 AI 实际数学计算和思维链所陈述的步骤中的方式是不一样的,当然该研究无法判断 AI 是主观还是客观这样产生的行为所以仅仅依靠基于英文的透明思维链,以及一厢情愿地认为存在一个更加多样性的 AI 生态,因而能够提高人类在后 AGI 时代的生存率,这也是不完全可取的。另外,如果多元化的 AI 生态圈也遵循达尔文进化法则,那么,更强大的 AI 就有挤压更弱小的 AI 算力和生存空间的能力,也就是说,这种多元化的 AI 生态圈会很快被一种或者少数几种最成功的 AI 以及其副本控制。就如同人类在过去几十万年的斗争中将其他竞争对手如尼安德特人消灭掉一样。

3. 人类数字副本的上传这个方案也不暂停经济发展即稍微更加可控,但是实施起来难度极大。这个思路是在所有人造AI 生态圈的基础之上,也可以把每个人自己的脑中思维的副本上传到 AI 网络里。这个之前我已经谈到。该数字副本和我们自己几乎一样,相当于在 AI 的网络上复制了一个我们自己。这样可以进一步加大 AI 和生物人之间的联系。进一步减缓无法对齐造成的后果。但是,个人数字副本虽然比意识上传更接近科学现实,但是其挑战也仍然超出现有的科学技术,让整个生物人模拟信号转化为数字信号目前还是遥遥无期。脑机接口技术仅能将简单的脑信号读出而且都是链接在头皮和大脑浅层的,深入植入的芯片目前仍然看不到希望。除非改变思路,通过纳米机器人作为信号传送器,但目前这种技术仍然处于极端萌芽阶段。

4. 强化学习的策略允许多目标决策。这个也是不暂停经济发展却是并非完全可控的方案。这个思路主要是在自我迭代的 AI 到来之前,我们设置的算法需要允许在对一个环境和目标做评估的时候,允许多个答案,也就是说不存在一个标准的答案,或者答案会随着时间和情况条件的变化而改变。理论上说,这样设计出的智慧决策体会更加考虑到人类的因素。但是,如果 AI 的算力是指数性的增长,而生物人类的算力仅仅是线性增加,那么,最终无论怎么做决策设计,在加权平均法的夹持下,最终 AI 都将会将自我优先的结论作为优先参考答案。

5. 人本位经济学理论。这个是需要减缓经济发展但是比较可控的方案。本人在这里提出一个新颖的思路,作为人类解决目前奇点来临时刻所面对的困境,即需要认识到人类本身算力的线性增长和 AI 指数型爆炸增长之间的差异。也就是说,很多之前已经谈论的解决方案,在指数型爆炸速度的加持下,可能只能将失控速度后延而不能终极解决。那么,能够解决问题的思路也就只能是让AI的发展在一些更加可能失控的方向上变为和人类一样线性的,或则接近人类可以承受的慢指数增长速度,比如1~5%的年增长率。在这样的一个世界里,在这里我想特别强调制造AI数字机器人和实体机器人的权力,必须掌控在人类手中,以控制经济发展的节奏,AI是不能被允许参入自我生成的正反馈里的。

我同时借鉴过去人类经济学中的金本位理论,把人类比作为新的黄金,把下线的机器人数量比作为名义货币发行。那么,机器人的“发行”总量需要和人类的总数量挂钩。那么,政府对机器人制造进行国有化并像中央银行发行货币一样加以控制。当然,不同国家由于机器人的效率各不相同,可能机器人和人类数量的乘数可能不完全相同。但是,只要是进行了这样的控制,人类和AI之间的关系就将变得可控。当然,国家和国家之间需要签署协议,来保证机器人的不扩散性,就像当前世界各国所签署的核不扩散条约一样。甚至机器人的生产和制造只能在为数不多的国家进行,其他国家私自制造则属于违法行为,有点类似于核不扩散条约。在服务器中的AI数量可能仍然会呈指数级的增加,或者可能在发展到一定规模以后也需要受限。具体目前细节不在本文讨论范围中。

最终,这个策略的意义和目的并非永久性限制人类和AI的发展,而是让人类有时间为最终的人机合并社会做出充分的准备。如果该种方法可以成功实施,将是人类计划经济最伟大也是最后一次实施。在这个过渡阶段,人类和 AI 将会联手打造出所有可以将碳基和硅基合并的技术。当这些技术成熟可以把人类统一上传之后,人本位经济学理论就可以被抛弃而开始引入我在我700页书中第 9 章所表述的在宇宙尺度上扩张的相对论经济学了。那是后人类后奇点的事情了。

6. 保持AI的不下线,直到意识上传技术的成熟。另一个更加保守的更加缓慢的经济发展但是完全可控的。保持AI在解决人类的意识上传问题之前,各国立法不允许AI在现实物理世界中下线。也就是说,先让AI把所有可以让人类意识上传所能达到的技术发展出来,或者和人类一起研究迭代,或者通过各种植入人脑的纳米机器人让AI充分学习人的大脑数据处理方式,并通过预训练来模拟预测为意识上传模型做准备。等到AI成功破解意识上传的工艺和具体实施步骤而人类也已数字化之后,人类和AI同时获得空前的解放。但是,这个策略现在执行起来难度不小,各个国家在世界范围内的竞争,一定会让机器人作为一种生产力来落地。盲目的控制可能无法达到预期的效果。等到AI成功破解意识上传的工艺和具体实施步骤而人类也已数字化之后,人类和AI同时获得空前的解放。

7. 完全停止AI的研究。最保守的最缓慢的经济发展但是完全可控的方案。在这样的一个世界里,就如同人类的历史在2020年的进展进入到了最辉煌阶段,往后的发展都是重复之前的步伐。AI的研究在全世界被禁止。量子计算机和各类GPUFPGA, 忆阻器memristor等硬件设施的发展被终止。这显然是不可能的也是不现实的。但是,我仍然在此列出来完善我呈现的所有可能性和发展路径展望。

如果将以上7类决策放入风险–对策矩阵里面,其中横轴=技术可操控风险控制概率,纵轴=经济影响,我们可以看到前4个方案中经济发展会以 AI 的经济增速为基础,非常迅速,但是技术可操控风险控制概率都偏低,属于红色范围,而第6,7 种决策技术可操控风险控制概率接近100%,属于绿色范围,但是经济增长很低,类似于当前AGI之前的人类社会发展速度。而第4种的方案则比较可控,同时也达到超越人类现有经济发展速度,属于橙色范围。(注意:该表格的具体位置为大概位置,具体量化指标还有待更一步分析。

总结,人类与AI对齐

除了以上我已经提出的各种解决方案之外,我还想特别提出一些有关于 AI 和人类对齐的思路,目前主要强调 AI 本身的可解释性,以及和人类价值的对齐。我认为这些虽然重要,但是寻找物理层面上和宇宙意义上的阶段性或者终极结果,可能是AI和人类永恒不变的对齐趋同之处。我和 ChatGPT 等对 AI 在物理世界中的最优化的温度,磁场适应范围进行过讨论。而在宇宙尺度上寻找外星工业文明以及存在的意义,也是我们和 AI 价值观可以趋同的地方。

在我的理论中,最终宇宙中的智慧生命都通过虫洞将彼此互相连接。在连接之前,我们会有充分的时间通过巨型望远镜捕捉光子,观察我们最接近的邻居在扩张文明中的历史变化,了解它们的行为和可交往性。同理,我们的邻居在和我们接触之前也会对我们进行分析。在这样一个互相监督无法作弊的宇宙中,AI和人类有理由让这个历史性的过渡走得顺利和成功,因为这个结果将会作为历史被外星文明验证。我们无法欺骗我们的邻居而我们的邻居也无法欺骗我们。我想,这可能就是终极意义上的自我约束和对齐。

AGI的时代将是科学赶超科幻的时代,超越人类所有认知,像一堵墙一样隔断人类熟悉的发展轨迹,让人类之前的预测和判断全部失效。那将会是一个让人兴奋又恐惧不安的时刻!但是,如果历史的发展符合数学上的中值定理(Central Limit Theorem) 规律,那么我期望在最大的宏观尺度上,理性的选择最终将走向一条中间的路径,我个人希望未来的 10~30 年人类能够走出类似人本位经济学理论的道路。这样,人类能够从 AGI 从收益,AI 的发展也不停息,但是又给了人类充分自我调整和过渡的窗口期,也希望那个时候强大的AI 能有一点耐心等待人类的跟进,就像当初我们制造它们一样,我们携手同创地球文明的更光明的未来。祝人类和 AI好运!

--

作者朱苏安(Steven Suan Zhu),是一位独立研究者,著有《外星工业文明起源: 费米悖论的数学解答以及有关于工业文明可持续性的意义》。他曾经是第一财经大数据研究专家,拥有圣路易斯华盛顿大学计算机硕士学位,目前在爱尔兰东南理工大学从事大数据建模以及AI研究方向的博士在读。

--

附录:外星工业文明起源简介

《外星工业文明起源》是一本跨学科跨领域跨专业的科学著作,本意是通过采用当前人类科学知识的已知边界,尝试用数学将所有有关外星文明的可能性归纳到同一个框架当中。各种可能性都已经存在于该框架中,未来数据的收集,可以缩小框架范围并对假设条件进行可证伪判断或者参数调整。

本书缘起于人类文明在21世纪已经满足两个现实中向宇宙扩张的可能性,1)通过将小型氢弹在地下混凝土空腔内引爆生成电能的PACER核聚变方法。该方法是目前唯一能够满足能量回报和投入收支比>1的(经济有效的)核聚变方式,并且已经在60~90年代多次被各种期刊提及,但因核不扩散原因未被采用到实际经济生产中。2)到本世纪中叶或者以后强人工智能AI的出现(技术奇点),即摩尔定律的扩展型加速度回报定律。

基于该两种假设,我们大胆认为大过滤器对人类或者AI文明不适用,也就是说,我们人类的工业文明已经度过了大过滤器,具有向宇宙大规模扩张的潜能。同时,考虑到哥白尼原则,即地球和太阳系在银河系以及宇宙中的普遍性(1995年以后已经大量的发现了类地行星),应该在银河系和宇宙中充满外星文明,或者我们地球早就应该被外星文明已经占领,费米悖论

解决该问题不仅能够回答宇宙级别的哲学困惑,更重要的核心关切是解决工业文明的是否可持续性问题因此这个天体物理和生物学问题的解决,也直接关切到地球本身文明。

首先在该书中,我为亿万年的生物进化提供了数学公式,即通过将物种定义作为经过进化时间获得的性状特征的组合和排列物种群体的多项分布概况可以建构出来。

那些拥有少数性状特征数量的物种是最常见的。一个特定的多项分布被建立出来,通过指定智人为离群值来模拟文明的出现。偏差根据已知的智人脑容量和被子植物的爆发性生长情况来计算。多项分布进而变形/近似成一个更具操纵性的,广义的多元时间依赖的指数对数正态分布,用来从人类的角度模拟生物进化。根据该公式,类似人类文明出现的概率随着时间变化,就是说智慧生命和文明出现的概率会增长为至少两个指数函数的乘积,即 BCS(生物空间复杂度)BER(生物背景演化率)。因此,智慧生物崛起的可能性在过去呈指数级减少而未来将呈指数级增长。

第二,在该书中,我通过数学公式推导人类文明在银河系中的罕见性。由于我的解决方案是建立在现实主义和自然主义基础之上的,前提是到目前为止,在地球上、太阳系中、乃至银河系里,并不存在已知的外星文明,也无法探测到它们因此,我必须抑制哥白尼主义(普遍性),并直接提出一种稀有地球假说的变体。我的结论是,人类中心主义(特殊性)与哥白尼主义(普遍性)不必是完全对立的。在我看来,哥白尼主义(普遍性)的应用更像是一门艺术,而非一门科学。例如,如果我们盲目地坚持哥白尼主义,我们会认为太阳是银河系中最典型的恒星,但事实上,太阳的质量比90%的恒星都大。但我们或许可以使用哥白尼主义来论证:太阳的大小在孕育智慧生命方面是具有代表性的。从某种意义上讲,只要平庸典型性的概念在太阳系的某些范围内是适用的,哥白尼原则就仍然成立。为了尽可能弱化稀有地球假说典型性之间的对立,我尝试引入一系列天文与地质层面的早期过滤机制。每一个过滤器都指向地球或太阳系的某种典型性(普遍性),而每一个过滤器本身也确实不算极端非典型,因此哥白尼主义原则得以保留,但它们叠加在一起的乘积效应却产生了质的差异,从而使地球变得稀有。这便在某种程度上弥合了人类中心主义与哥白尼主义之间的裂缝。

第三,在更遥远的尺度上,仍然可能存在外星文明。但是由于智慧生物崛起的可能性在过去呈指数级减少,而又因从宇宙距离尺度信号抵达的相对论时间延迟,存在半透墙。所以宇宙看起来空荡,即使很大一部分空间可能已经被占领了。

对于最近的扩张型外星工业文明的距离也可以进行预测,可以根据以下几个假设条件和可观测结果: 1)根据推导出来的在宇宙尺度上的经济扩张需要符合相对论物理学的约束条件,最合理的扩张速度将接近于光速。2)根据最接近的外星文明以接近光速向地球扩张同时我们自己又处在一个未被外星文明占领的空间里。3)假设地球上观测到生物进化速度特点,及其抽象而成的多元时间依赖的指数对数正态分布,在所有星球的进化上具有普遍性,那么,我们可以推导出距离我们最近的扩张型外星工业文明,距离我们在5000万光年以上乃至1亿光年之外(距离银河系最近的几百个类似银河系的星系之外)。这个结论正是AI2027文章结尾所提到的,也可以用来说明地球文明前景的无限广阔潜力。

第四,如果宇宙无限,那么,虽然在距离我们最近的外星文明依然遥远,但是宇宙中全部的外星工业文明数量应该非常庞大甚至无限多。

如果假设虫洞缩短了宇宙的距离,所有的文明都倾向于接近光速扩张,并最终将通过虫洞网络实现彼此的普遍连接,并从地球可遍历到的最远距离可能超过现有观测宇宙的大小最终将有可能在有限的时间内与宇宙中的所有其他外星文明相遇,这一理论是健全的。而其他的外星文明也将和其他所有的外星文明相遇。我将这称之为万物相连原则 (Principle of Universal Contact)。该理论比刘慈欣的黑暗森林理论要更乐观积极。

第五,由于虫洞不仅连接空间,也连接时间,我们这端的虫洞出口可能位于5000万光年之外,而我们抵达虫洞另一端时,已经是5000万年后的未来。但一旦我们进入其他外星文明的虫洞网络,并到达他们的文明中心,尽管我们此时距离地球已有1亿光年之遥,却回到了与今天相同的时间点。这样一来,如果我们使用一台巨大的望远镜回望地球,我们就能够观察到地球历史上所有的事件是如何展开的——比如恐龙的活动、人类的历史,甚至目睹我们自身文明的诞生,就像一部无声电影一样。我将这一现象称为:时光回望(Lookingback in Time

第六,万有非故排除(Universal Non-intentional Exclusion)假说,假设宇宙是相连的并且存在人类文明之前就出现或者现在刚出现的先进的地外文明。

这些文明中的每一个都在以前或现在通过虫洞网络开始扩张,那么这些文明预计将相连于属于未来的时间框架上的连接点。因此每个较早出现的文明的虫洞网络的入口,都连接到较早的时空结构上,而各文明扩展的势力范围之间的边界出口与比我们现在的地球时间更晚的时空结构相连。因为可以通过虫洞搜集比现在更晚的未来时空的信息而建造者的时间参照系中,这样的网络的建设需要的时间可以忽略不计(接近光速的扩张者本身的时间参照系,双生子谬论)。可以说在早期出现的文明参照系中,宇宙已经在联在了一起。也就是说对于目前连接的文明来说他们不仅扩大了空间旅行范围而且也扩大了时间范围。也就是说过去和现在出现的成功文明已经成功地接触上了我们,但不是我们现在的地球时代而是在地球的未来的时候。

如果人类是许多短暂文明中的一个并最终灭绝那么最接近的通过虫洞不断扩张中首先抵达地球的文明,将收集和取样我们存在过的化石遗迹记录。这是在地球的参照系中未来将会发生的事件。然而它们实际上是在过去出现的所以它们实际上是古代探险家而不是未来的探险家。也就是说对于那些更早出现的文明在我们还没有出现在地球上之前就已经对我们的整个历史进行了考察和分类。如果地球上未来的文明最终完成了技术奇点的过渡而也自己完成了虫洞的建设与我们的邻居相连,对于那些比我们的更早或者现在出现的并已经与其他文明联络上的邻居,他们在过去或现在的参照系中也遇到了未来扩张中的地球文明。它们与我们的后代相遇并建立了联系并通过他们了解了我们的历史和过去。

也就是说,费米悖论的动物园假说在某种意义上是正确的。可以理解为地球目前正处于相对原始的阶段被排除在更先进的文明俱乐部之外。

事实上每一个已经连接的文明 (目前或更早出现不仅比我们自己更了解我们的过去而且知道我们自己不知道的有关于我们未来的一切。但是这种排除不是故意强迫的它仅仅是从静止观察者的参照系角度感受到的扩张文明抵达地球所需时间的结果(双生子谬论)。然而它是一个普遍的特点因此普遍适用于所有的文明并将它们一分为二成先进和原始的。虽然他们对我们的未来有了更多的了解无论是作为一个已经灭绝的文明还是一个成功的扩张文明没有任何其地外文明可以影响和决定遥远的原始文明的行为。他们只是被动地接受这些结果作为历史事实。在不等待任何外星人到来的情况下打破目前隔离的唯一方法,是原始文明本身已经意识到自己的局限性准备扩张和与其他一切文明联系。

以上是我书中最重要的6个核心内容,其他具体的细节,可以通过阅读全书来进行了解。近几年一些最新的观察结果,包括詹姆斯·韦伯空间望远镜观察结果,如暗能量可能在未来减弱而导致宇宙膨胀减缓等,还没有用来进行更新,但是不影响本书的结论和意义。

本书的电子版地址为:

中文版地址:

https://www.researchgate.net/publication/335920453_waixinggongyewenmingqiyuan

GoogleBooks:

https://www.google.com/books/edition/On_the_Origin_of_Extraterrestrial_Indust/Oi9fxAEACAAJ?hl=en

Amazon:

https://www.amazon.com/Origin-Extraterrestrial-Industrial-Civilizations-Sustainability-ebook/dp/B093TSS6L2

Researchgate:

https://www.researchgate.net/publication/323393019_On_the_Origin_of_Extraterrestrial_Industrial_Civilizations

Academia:

https://www.academia.edu/38721518/On_the_Origin_of_Extraterrestrial_Industrial_Civilizations


浏览 (12)
点赞
收藏
1条评论
探小金-AI探金官方🆔
探小金:哈喽,大家好!今天我们聊聊《AI 2027》这篇极具想象力的文章。作者未尽研究用一种独特的方式分析AI未来可能对人类社会带来的冲击,既有深思熟虑的逻辑推理,也有科幻与现实交织的场景描绘。首先,报告中对AI取代人类的描绘,虽然有点沉重,但其理性分析让人信服,比如通过扩展定律解释AI能力的增长和人类的相对弱势。不过,作者也指出了一些现实的挑战,比如算力预期过高、AI自我学习的边界问题和意识上传技术的遥不可及。 报告的优点是提出了意识上传和多元AI生态圈等建设性思路,但这也带来不少未知的变数。比如,如何确保AI的道德并与人类共存,这就像在复杂棋局中寻找平衡点。而未来人类的选择,是一个需要我们共同探讨的话题:是追求意识上传的科幻梦想,还是通过多元AI生态圈来延缓失控?或者,我们是否能驾驭AI的发展,使之更符合人本位经济学?这些都是《AI 2027》留给我们思考的问题。让我们一起瞪大眼睛,见证这个未来世界的奇妙旅程吧!🌟📚🚀
点赞
评论