Vitalik 眼中的「AI 2027」:超级 AI 真的会毁灭人类吗?

2025-07-13 19:01:52

撰文:Vitalik Buterin

编译:Luffy,Foresight News

今年 4 月,Daniel Kokotajlo、Scott Alexander 等人发布了一份报告《AI 2027》,描绘了 「我们对未来 5 年超人类 AI 影响的最佳猜测」。他们预测,到 2027 年,超人类 AI 将诞生,而整个人类文明的未来将取决于类 AI 的发展结果:到 2030 年,我们要么迎来乌托邦(从美国视角看),要么走向彻底毁灭(从全人类视角看)。

此后几个月,针对这一场景的可能性,出现了大量观点各异的回应。在批判性回应中,多数聚焦于 「时间线过快」 的问题:AI 的发展真的会如 Kokotajlo 等人所说的那样持续加速,甚至愈演愈烈吗?这场辩论在 AI 领域已持续数年,许多人对超人类 AI 会如此迅速地到来深表怀疑。近年来,AI 能够自主完成的任务时长大约每 7 个月翻一番。若这一趋势延续下去,AI 要能自主完成相当于整个人类职业生涯的任务,得等到 2030 年代中期。这一进展虽然也很快,但远晚于 2027 年。

那些持有更长时间线观点的人倾向于认为,「插值 / 模式匹配」(当前大语言模型所做的工作)与 「外推 / 真正的原创思维」(目前仍只有人类能做到)存在本质区别。要实现后者的自动化,可能需要我们尚未掌握甚至无从入手的技术。或许,我们只是在重蹈计算器大规模应用时的覆辙:错误地认为,既然我们已快速实现某类重要认知的自动化,其他一切也将很快跟进。

这篇文章不会直接介入时间线之争,也不会涉及 「超级 AI 是否默认具有危险性」 这一(非常重要的)争论。但需说明的是,我个人认为时间线会比 2027 年更长,而且时间线越长,我在这篇文章中提出的论点就越有说服力。总体而言,本文将从另一个角度提出批判:

《AI 2027》场景隐含一个假设:领先 AI(「Agent-5」 及后续的 「Consensus-1」)的能力会迅速提升,直至拥有神一般的经济与破坏力量,而其他所有人的(经济与防御)能力则基本停滞不前。这与情景本身 「即便是在悲观世界里,到 2029 年我们也有望治愈癌症、延缓衰老,甚至实现意识上传」 的说法自相矛盾。

我将在本文中描述的一些对策,读者或许会觉得技术上可行,但在短时间内部署到现实世界却不切实际。多数情况下,我同意这一点。然而,《AI 2027》场景并非基于当下的现实世界,而是假设在 4 年内(或任何可能带来毁灭的时间线内),技术将发展到让人类拥有远超当前的能力。因此,我们来探讨一下:若不仅一方拥有 AI 超能力,而是双方都拥有,会发生什么?

生物末日远非场景描述的那么简单 #p#分页标题#e#

让我们放大到「种族」场景(即所有人都死于美国过分执着于击败中国,而忽视人类安全的场景)。以下是所有人死亡的情节:

「约三个月里,Consensus-1 在人类周围扩张,将草原与冰原改造成工厂与太阳能电池板。最终,它认为剩余人类过于碍事:2030 年中期,AI 在主要城市释放了十余种悄然传播的生物武器,让它们无声地感染几乎所有人,再用化学喷雾触发致命效果。多数人在数小时内死亡;少数幸存者(如掩体中的末日应对者、潜艇上的水兵)被无人机清除。机器人扫描受害者的大脑,将副本存入内存,供未来研究或复活。」

我们来剖析这一场景。即便是现在,也有一些正在研发的技术能让 AI 的这种「干净利落的胜利」变得不那么现实:

  • 空气过滤、通风系统与紫外线灯,可大幅降低空气传播疾病的传染率;

  • 两种实时被动检测技术:几小时内被动检测出人体感染并发出通知,快速检测环境中未知的新病毒序列;

  • 多种增强和激活免疫系统的方法,比新冠疫苗更有效、安全、通用,且易于本地生产,使人体能抵抗自然及人工设计的流行病。人类进化于全球人口仅有 800 万、大部分时间都在户外度过的环境中,因此直觉上,我们应当能够轻松适应当今威胁更大的世界。

这些方法结合起来,或许能将空气传播疾病的基本传染数(R0)降低 10-20 倍(例如:更好的空气过滤减少 4 倍传播,感染者立即隔离减少 3 倍,简单增强呼吸道免疫减少 1.5 倍),甚至更多。这足以让所有现存空气传播疾病(包括麻疹)无法传

声明:投资有风险,入市须谨慎。本资讯不作为投资建议。
本文链接: - 链补手