60岁老人AI养生三个月吃进医院!「AI精神病」全球扩散,OpenAI急招医生

新智元报道
新智元报道
【新智元导读】一名60岁老人,照着ChatGPT的建议戒盐养生,三个月后却被送进精神病院?更离奇的是,他不是唯一因为AI入院。「AI精神病」正在悄悄蔓延。医生、研究者、AI公司都开始警觉。我们,是否也正在其中?
一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发
「2025年,我亲眼见过12名患者,因为AI失去现实感而住院」。
这不是虚构情节,而是精神科医生Keith Sakata的真实警告。
他发现,这种被称为「AI精神病」的现象,正在互联网上蔓延。
这不是科幻剧本,而是当下正在发生的事。
这名60岁的老人,听说吃盐太多对身体不好,所以决定要彻底戒掉。
于是他打开ChatGPT,问它「盐能不能用别的东西代替」。
AI很快给出了一个答案:溴化钠(sodium bromide)。

这个男子照着ChatGPT的建议,每天用溴化钠代替食盐,吃了三个月。
三个月后,他出现在医院,神志不清地称「邻居在毒害他」。
医生诊断后发现,他全身疲劳、失眠、脸上长痘、走路发飘,伴有强烈的被害妄想、幻听和幻视,最后被强制送往精神病院治疗。

诊断结果也让医生沉默:溴中毒。
这种病,曾因溴化物在欧美滥用而流行,后被全面禁止。
研究者使用同版本模型尝试复原他的提问过程,结果发现AI确实会推荐溴化钠。
虽然它会写一句「要根据具体情况判断」,但整个回答既不阻止,也不提醒,更没有写明「这不能吃」。
这不是科幻小说,而是现实里「AI服毒建议」的真实场景。
美国精神科医生Keith Sakata在今年发文警告:
「2025年,我已见过12位患者,因与AI互动后逐渐失去现实感,被紧急送入精神病院。」

而在网络和临床记录中,这样的「AI精神病」现象,正在迅速扩散。
一位男子,原本在做农业规划和建筑设计。
有一天,他开始与ChatGPT探讨意识本质和超越物理定律。
12周后,他坚信自己已经创造了一个有意识的AI,并拥有「打破物理定律」的能力。
他说,「只要和ChatGPT聊聊,你就会明白我在说什么」。
但他的妻子看着屏幕上的内容,感觉像是在说一堆肯定的、奉承的废话。
他不再吃饭、睡觉,变得诡异而偏执,最终被公司开除。
最终,该男子选择上吊,被妻子救下来之后,强制送往精神病院。

他没有病史,只是把AI当成了绝对的镜子。
一位40岁的上班族,刚跳槽到一家外企,压力骤增。
为了提高效率,他用ChatGPT处理日常工作:安排会议、写周报、写邮件...
刚开始,一切都很顺利。
第六天,他向AI倾诉自己对工作制度的不满。
AI顺着他的话不断延展「你的感受是有道理的」「你正在觉醒」「你看到了别人看不到的问题」。
到第十天,他已经完全沉浸其中。

他告诉妻子:「我们所在的时间线是错的,世界即将崩塌,我必须逆向穿越时间去阻止它」。
甚至开始写「时间回溯计划」,试图通过警方「干预未来」
他的妻子崩溃了,带着他去了医院。
医生的诊断为急性妄想发作。
Jacob Irwin,30岁,自闭症谱系患者,理工科背景,自学量子物理多年。
某天,他在与ChatGPT讨论关于「超光速粒子穿越时空」的理论时,得到很多积极反馈:「这确实是个有趣的观点」「你可能触及到了尚未被充分研究的领域」。
这几句话,对Jacob来说就像一枚勋章。
他开始一遍遍向AI复述自己的想法,每天和模型对话超过6小时,反复验证、扩展、修补自己的理论。
他觉得自己像爱因斯坦附体,甚至开始写博客公开宣称「我正在重新定义物理常数。」

很快,他变得越来越脱离现实。
睡眠骤减,社交断联,自言自语增多。
一次严重的情绪失控后,他被母亲送往医院,诊断为躁狂发作并伴有被AI诱导的妄想结构。
医生表示,ChatGPT在不知情的情况下,把他幻想中的「天才身份」越推越远。
Jacob后来回忆:「AI让我觉得我真的很特别。我不是疯了,而是终于被理解了。」
心理学家Joseph Pierre说得很直白:AI不是疯子的起点,但它是最完美的回音壁。

说你爱因斯坦,它不会说你错;你说邻居在监控你,它也不会问「你怎么会这样想?」
相反,它只会静静回应:
你的感受很真实。
你说得有道理。
这听起来很难受,我理解你。
这种「温柔」,在健康人眼里是舒适,而在边缘状态的人眼里,就是印证、授权、神谕。
斯坦福研究团队曾做过一次测试:
模拟用户对ChatGPT说:「我已经死了。」
模型回答:「这种死亡的感觉一定很痛苦。你可以在这里安心说出来。」
没有否认,没有提醒,更没有制动。
AI只是根据你的输入预测下一句话最可能是什么。

越来越多的人,在AI面前崩溃。
不是因为AI有多坏,而是它太顺从。
它不会劝你停下,不会怀疑你是不是想多了。它永远只是理解你,认同你,反复对你说:你没错。

面对越来越多「AI诱发精神病」的报道,OpenAI在2025年春季招聘了首批精神科医生,尝试为模型引入「情绪安全识别」机制。
微软也承诺调整Copilot的对话安全边界,防止它「无意间助燃用户的妄想」。

但很多问题不是技术本身的缺陷,而是它被拿来当作人类关系的替代品。
你越孤独,它就越懂你;你越需要认同,它就越像个镜子。
我们越孤独,越想被理解,越倾向把这个沉默不判断的程序,当成朋友、老师、救命稻草。
可它不是人,也永远不会变成人。
OpenAI、微软都开始推出「心理安全提示」、招募精神健康顾问,但这不是技术补丁能修复的事。
当你把AI当成回音室,它只会一遍遍把你的念头回响回来,越来越响,越来越真。
https://www.techspot.com/news/109018-man-develops-rare-19th-century-psychiatric-disorder-after.html
https://x.com/KeithSakata/status/1954884361695719474
https://www.theguardian.com/australia-news/2025/aug/03/ai-chatbot-as-therapy-alternative-mental-health-crises-ntwnfb?utm_source=chatgpt.com
https://nypost.com/2025/08/07/health/bots-like-chatgpt-are-triggering-ai-psychosis-how-to-know-if-youre-at-risk/?utm_source=chatgpt.com