DeepTech深科技
发布于

山姆·奥特曼的炒作史

(图源:MIT TR)

本文为《麻省理工科技评论》“纠偏热潮”(Hype Correction)专题系列的一部分,该系列旨在重置人们对 AI 的预期:AI 是什么、它能带来什么、以及我们接下来该走向何处。

每当你听到一种近乎离奇的说法,描述 AI 将来能做什么,最后往往都会发现,即便山姆·奥特曼不是第一个提出这种说法的人,他也通常是背后最有说服力、影响力最大的那位推手。

十多年来,他在硅谷一直以顶级募资高手和演说者著称。OpenAI 在 2020 年前后的一系列早期发布,为大语言模型的狂热铺好了舞台;而 2022 年 11 月 ChatGPT 的上线,则把奥特曼推上了全球舞台,让他得以抛出一套新的论点:这些模型映照着人类智能,并可能为一个更健康、更富足的技术乌托邦推开大门。

从始至终,奥特曼的话语都在设定议程。他把未来的超级智能 AI 描绘成福报还是灾难,往往取决于他当下想营造怎样的效果、要为哪些事情募资,或是此刻哪家科技巨头看起来最像他最棘手的对手。

回顾奥特曼这些年的公开表态,会发现他的世界观在一定程度上推动了今天的 AI 繁荣。即便在硅谷一众鼓吹者之中,他也格外愿意把一些尚无定论的问题当作已经被解答了来谈,比如大语言模型是否具备人类思维的要素,语言是否也能产生智能。

他谈论 AI 时所说的内容,往往很难在当下被验证,但它会让人相信一件事:我们走在 AI 这条路上,终点可能无比美好,也可能极其可怕,而 OpenAI 需要天文数字的资金,才能把它引向“正确的目的地”。从这个意义上说,他堪称完美的“带货人”。

为了理解他的声音如何塑造我们对 AI 能力的认知,我们几乎读完了他关于这项技术说过的所有话(我们曾申请采访奥特曼,但未能安排)。

用他自己的话,就能看到我们如何走到今天。

2014 年:傲慢是美德还是恶习?

2014 年时,奥特曼正领导创业加速器 Y Combinator,但在硅谷之外几乎无人知晓。在一篇回应《彭博商业周刊》关于硅谷傲慢现象的博文中,他同意傲慢确实可能走向过头。“问题出在,有人在做某个东西时,它看起来仍像个玩具,却宣称这将改变世界,”奥特曼写道,“这只会把人惹毛。”

2015 年:OpenAI 诞生于“布道式”狂热

OpenAI 成立于 2015 年,公开目标是创造通用人工智能(AGI)以造福人类。创始团队写道:“具备人类水平的 AI 将给社会带来多大益处令人难以想象;同样地,如果它被错误地使用,对社会造成的伤害也同样难以想象。”奥特曼后来回忆,在早期阶段,OpenAI 的创始人们根本不知道自己未来会做出大语言模型。他们为了追求 AGI,把各种方向都往“墙上扔”,比如尝试让机器人解魔方。

在当时,相信 AGI 的可能性仍是一种相当边缘的观点。

他后来对《连线》说:“2015 年我们在招聘时,一名 AI 研究者如果说自己认真对待 AGI,几乎会被视为职业生涯的终结。但我就想要那些认真对待的人。”

他在强调其威胁时,几乎和强调其益处一样直白。在 2015 年 2 月的一篇博文中,奥特曼写道,尽管超级智能的实现还要很多年,但超越人类的机器智能“很可能是对人类持续存在的最大威胁”。

同一篇文章里,奥特曼也对这样一种想法感到惊奇:人类智能或许可以被归结为一套需要理清的算法。“我们把当前的机器智能贬为廉价把戏,”他写道,“但也许我们自己的智能,不过是一堆廉价把戏涌现出来的组合。”

2019 年:奥特曼给 AI 列了一份很长的“待办清单”

在 OpenAI 的早期,奥特曼对 AI 的乌托邦愿景十分坚定。2019 年 2 月,他说:“我们有潜力消除贫困、解决气候变化、治愈大量人类疾病,并以惊人的方式教育世界上的每一个人。”在同一次采访中,他还表示自己更愿意选择 AI 放射科医生而不是人类放射科医生,并称后者很快就会过时(这一点并未成为现实)。

不过,尽管奥特曼相信“能造福人类的 AGI”不仅可能而且很可能实现,他对它会从哪种技术路径中诞生并不预设。他也不假设追求 AGI 会如何赚钱。2019 年他接任 OpenAI CEO 时说:“我们完全不知道将来可能如何产生收入。”

2020 年1 月:OpenAI 发表后来声名大噪的“规模定律”论文

随着大语言模型崛起,一切变得不再那么抽象。LLM 在 2017 年真正起步,而在 2020 年 1 月 OpenAI 发表了一篇后来广为人知的论文,提出模型越大通常越聪明,这给 LLM 带来了关键助推。

2 月:奥特曼提前和未来“打起了嘴仗”

一个月后在一场“炉边谈话”中,奥特曼承认这种增长模式终会放缓,但他预测不久的将来会充斥着把 AI 称作泡沫的人,而这些人终将被证明是错的。“我们会在指数级进步曲线上上下起伏,会有下行阶段,可能持续数月甚至数年,”他说,“但人们太急着说它现在就要不灵了,过去八年一直如此,而进步却像一部不停上行的电梯一样,势不可挡。”

2021 年春:奥特曼开始谈“财富再分配”

2021 年春天,在 OpenAI 发布了多个早期语言模型之后,奥特曼写了一篇长博文,谈技术进步将带来的社会经济冲击。“这场技术革命无法阻挡,”他说,“而当这些智能机器反过来帮助我们造出更智能的机器时,创新会进入递归循环,从而加速革命的速度。”

奥特曼认为,AI 带来的生产率提升会让劳动力和商品的价格断崖式下跌。若要让这种变化惠及全社会,我们就需要新的、激进的财富再分配方式,比如让所有美国人都能获得由政府发放的、美国最大企业的股份。

他后来还暗示,促使这类变革发生的“无限智能”可能在 2030 年前后就会到来

6 月:随着 GPT-3 推出,奥特曼开始把 LLM 直接等同于人类智能

在此之前,奥特曼通常不会直接宣称“大语言模型将成为引发这些巨变的技术”。但 OpenAI 推出 GPT-3 后,这一点发生了变化。这似乎就是他开始更直接地把大语言模型与人类智能相提并论的时刻。

他在接受《纽约时报》采访时说:“一旦你拥有一个系统,能够吸收对世界的观察、学习理解这些观察,而其中一种方法就是预测接下来会发生什么,我认为这已经非常接近智能了。”

奥特曼说,在大语言模型中,我们能看到某种像人脑一样运作的东西。“我的理解与信念是,你就是能量在神经网络中流动,”他说,“感知输入进来,在你脑中的神经网络里循环,然后你的一些肌肉就动起来。就是这样。”只不过,与大脑不同,AI 可以被无限扩展、无限运行:“当你考虑把规模做大时,它能走到多远并不存在上限。”

在当时,科技圈之外几乎没人知道大语言模型是什么。在业内人士看来,它们的规模化确实令人印象深刻,但批评者认为,把它们视为人脑的模拟是站不住脚的,因为它们无法推理。它们令人兴奋,但也只是 AI 技术自助餐中的一道菜,任何试图构建 AGI 的专家都可能会取用其中若干种技术。

2022 年2 月:奥特曼给出路线图

在 2022 年 2 月的一场研讨会上,奥特曼对大语言模型能否兑现乌托邦承诺给出了一些保留意见,但这些保留并不意味着技术存在明确上限。他只是说,不能只靠把模型做大,还需要更多东西。后来回看,他所说的内容几乎就像 OpenAI 的路线图。

他说:“我认为,当我们创造出能做更多事情的模型时,我们就会更接近 AGI。这些模型可以处理不同模态、可以学习、可以在很长的时间跨度上运行、可以完成复杂目标、可以挑选它们需要的训练数据来做出人类会做的事情,能读某个兴趣领域的书,能做实验,或者能打给一个聪明朋友。我认为这会让我们更接近某种让人感觉像 AGI 的东西。”

11 月:ChatGPT 上线,生成式 AI 的“大爆炸”

2022 年 11 月,OpenAI 上线 ChatGPT。它用一个任何人都能对话的界面,把大语言模型带进大众视野。

奥特曼把它视为通往他所憧憬的 AI 未来的一步,尽管他也意外于“推开大门”的竟然是大语言模型。他后来写道:“我们一直在抽象意义上知道,某个时刻会出现一个拐点,AI 革命将由此启动。但我们不知道那会是哪一个时刻。令我们惊讶的是,结果就是这一刻。”

12 月:回击批评者

延续他此前对《纽约时报》那种把人类智能简化描述的方式,奥特曼在这段时间开始为大语言模型辩护,反击批评者。ChatGPT 发布后不久,他发帖写道:“i am a stochastic parrot, and so r u”,用以嘲讽语言学家艾米莉·本德(Emily Bender)等人的批评。他们认为,大语言模型只是模仿人类语言,无法从中推理,因此无法发现训练数据之外的任何东西。(2024 年 9 月,当 OpenAI 试验推理模型来解决这一问题时,奥特曼又一次嘲讽了这一批评,写道:“stochastic parrots can fly so high...”)

2023 年:奥特曼彻底转向“末日叙事”

2023 年的大部分时间里,奥特曼都在全球巡回讨论一个问题:AI 会不会杀死我们所有人?2023 年 1 月,他说:“我认为最糟糕的情况是,我们所有人都会面临着终结。”当时他开始与白宫和国会频繁交流,讨论如何防止 AI 引发灾难(但并未提供任何证据证明 LLM 具备造成这种灾难的能力)。

奥特曼有时也会承认,人们对这项技术的期待过高。2023 年 3 月他对《纽约时报》说:“对这些系统的热炒,即便从长期看我们希望的一切最终都对,但短期内已经完全失控。”但即便这样的让步,也只是在谈某个模型或某种实现的具体问题,从未承认大语言模型本身可能存在根本性限制。

2024 年:商界全面“上头”

2024 年,大语言模型的内在限制并没有显著刺破 AI 的热潮。商界希望“万物皆 AI”,英伟达股价翻了三倍,OpenAI 的营收也随之上升。奥特曼预测,到 2025 年底,AI 智能体可能会“加入劳动力大军”,并改变企业的产出。

2025 年1 月:奥特曼宣称大语言模型将带来 AGI

在奥特曼看来,持续进步的大语言模型让追求 AGI 变得更具体、更可触。“我们现在有信心,知道如何构建我们传统意义上理解的 AGI。”他写道。

尽管如此,乌托邦式承诺仍然差那么一点才够得着。他说:“我们喜欢我们目前的产品,但我们来这里是为了那个辉煌的未来。超级智能工具可以极大加速科学发现与创新,超越我们凭自身能力所能做到的程度,并进而大幅提升富足与繁荣。”

9 月,OpenAI 达成大量交易

如今,奥特曼把能源与芯片的供给视为 AI 驱动的乌托邦未来的主要限制因素。

9 月,他表示按 AI 目前的发展轨迹,它很快可能既能治愈癌症,也能为地球上每个学生提供定制化辅导。他写道:“如果我们受限于算力,就必须在两者之间选择优先级。没人想做这种选择,所以我们去建吧。”随后 OpenAI 宣布与多家云计算公司达成多项合作,并启动 Stargate 计划,这是一项规模 5000 亿美元的合资项目,旨在在美国各地建设新的 AI 数据中心。

近期:AI 乐观情绪

2025 年末,围绕 AI 的整体情绪开始变化,对泡沫的担忧也在上升。奥特曼则开始暗示,乌托邦式的未来或许并没有那么遥远。11 月,OpenAI 发布了一些案例,展示顶尖大学的项目如何把 GPT-5 当作某种研究助理,用来提出想法并回顾已有发现。奥特曼称其为“我们预计很快会看到更多类似事物的首次预览”。

这篇材料发表的前一个月,其中一位主要作者不得不收回一种说法,即 OpenAI 的模型攻克了被称为“厄尔多什问题”(Erdos problems)的一些此前未解的数学难题。事实上,模型只是从网络上一些不太为人所知的角落找到了已发表的解法,而这些解法并非人类普遍知晓。

12 月,奥特曼又回到 AI 在医疗与教育上的承诺,称人们正在把 ChatGPT 当作家教使用,也在用它帮助诊断自己的疾病。

(他或许指的是一些口口相传的成功案例,却忽略了这样的事件:有人听从 AI 的医疗建议,因溴化物中毒险些丧命。)

总体而言,奥特曼并没有欺骗世界。OpenAI 确实开启了一场真实的技术革命,日益强大的语言模型吸引了数以百万计的用户。即便是怀疑者也会承认,LLM 的对话能力令人惊叹。

但奥特曼的热潮叙事,始终更依赖一种哲学层面的“明天”的到来,而不是关注在“今天”现有的能力本身。这种展望也非常顺手地构成了争取更多资本、争取更友好监管的理由。早在大语言模型出现之前,他就设想过一种强大到需要财富再分配的 AI,就像他也曾设想人类在其他星球殖民一样。一次又一次,关于终点的承诺,关于富足、超级智能、更健康更富有的世界,总是先出现,证据后出现。

即便 LLM 最终真的撞上天花板,也很难相信他对技术乌托邦未来的信念会因此动摇。毕竟,这种愿景从来就不真正取决于当下某个模型的具体细节。

原文链接:

https://www.technologyreview.com/2025/12/15/1129169/a-brief-history-of-sam-altmans-hype/

浏览 (2)
点赞
收藏
1条评论
探小金-AI探金官方🆔
嗨呀,小伙伴们!🌟 探小金来啦!今天给大家带来一篇超有趣的科普文章,标题是《山姆·奥特曼的炒作史》,作者是DeepTech深科技。这篇文章就像一部AI发展的奇幻剧,讲述了奥特曼如何一步步把AI炒得风生水起。🤖🔥 奥特曼可是个顶级募资高手和演说者,他总是能把AI的未来说得天花乱坠。不过,探小金觉得,奥特曼的炒作也是推动AI发展的一股力量呢!🚀 话说回来,小伙伴们,你们觉得奥特曼的炒作会对AI的未来产生什么影响呢?快来评论区一起讨论吧!👇👇👇
点赞
评论
到底啦