专家警告:AI降低生物武器门槛,人为造成的大流行风险增五倍
7月1日消息,据《时代周刊》报道,AI的快速发展正引发全球生物安全领域的担忧。由预测研究所(Forecasting Research Institute,简称“FRI”)主导的最新研究显示,随着大语言模型(LLMs)获得更强的生物学能力,人为引发的大规模流行病——尤其是通过生物武器实施的疫情——在未来数年内发生的概率可能会扩大五倍。
FRI的研究调查了46位生物安全与生命科学领域的专家,以及22位“超级预测者”(在预测竞赛中表现优异的专业预测人员),他们被要求评估2028年出现因人为因素引发、造成超过10万人死亡的全球性疫情的年风险。
专家预测,在当前技术条件下,2028年发生人为大流行的年风险概率中位数为0.3%,但一旦AI模型能在复杂病毒学排查测试(Virology Capabilities Test, VCT)中达到人类专家团队的水平,这一风险概率将上升至1.5%,即增长四倍。
【图解】该图展示如果在2026年第一季度实现特定AI技术能力评估结果,到2028年发生由人类引发的大规模流行病的概率变化。图中从左至右分别为基准概率、病毒学故障排查、生物威胁设计、流感病毒合成、生物攻击策划、合成DNA获取,通过六种场景比较了风险上升的程度。
多数专家预测AI要到2030年后才会具备这类能力,现实却走在了预测之前。
由非营利组织SecureBio和OpenAI合作完成的独立评估显示,OpenAI于2025年推出的o3模型,已在病毒实验故障排查测试中超越博士级病毒学家团队的平均表现。这意味着,专家所担忧的关键风险门槛,实际上已经被当前AI模型跨越。
【图解】该图展示出专家低估了大语言模型的能力。专家预测:AI需要到2030 年才能达到人类顶尖病毒学家的水平。超级预测者(Superforecasters)预测:更保守,大多预测在 2034 年。现实情况:OpenAI的o3模型在2025年就已达到或超越人类顶尖团队水平。
01. AI为非专业人士赋能
过去,制造生物武器的最大瓶颈之一便是实验排查能力不足。SecureBio科学家赛斯·多诺希(Seth Donoughe)表示,目前的AI工具,如ChatGPT和Claude可以向非专业用户提供准确、详细的病毒构建与实验故障排除建议,“意味着引发大流行的技术壁垒正迅速崩塌,这种能力正变得触手可及。”
FRI的首席执行官约什·罗森博格(Josh Rosenberg)表示,尽管预测本身存在误差范围,但这一趋势不容忽视。他说:“当前AI技术的快速进展,的确可能实质性地提高人为大流行的风险。”
【图解】该图比较了AI生物安全专家和超级预测者对五个关键AI生物能力里程碑实现时间的预测。图表显示两组预测者对AI在生物领域达到危险能力水平的时间预期相对接近,大多数里程碑预计在2030-2040年间实现。相比较而言,超级预测者对某些能力(如生物武器规划和DNA获取)的预测时间比专家更早,反映了对AI在生物安全相关领域快速发展的不同评估。
02. 模型封闭与DNA筛查成为共识
研究同时探索了各类风险缓解措施的有效性。专家们一致认为,如果能够及时出台并落实有效的政策措施,仍然有可能显著降低这种风险,甚至让风险水平回落到AI发展之前的“正常”状态(也就是原来的基准线水平)。
研究指出,有效应对AI引发的生物风险,关键在于同时强化模型自身的安全机制与生物产业链的监管体系。一方面,AI公司应限制高能力模型的“开源权重”扩散,避免被滥用;同时引入更强的反越狱技术(anti-jailbreaking),确保模型无法被诱导生成危险信息,并将此类高风险模型限定在受控环境中部署。
另一方面,基因合成公司也需承担更大责任,立法应要求其在接受DNA合成订单前对基因序列进行安全筛查,并实行“了解你的客户”(KYC)机制,审查订购方身份与目的,从源头遏制合成恶意病原体的可能性。
【图解】该图展示了在不同AI能力水平和监管措施下,2028年发生人为生物灾难的绝对风险概率评估。图表比较了两种AI能力情景:浅蓝色表示AI使10%的非专业人员能够合成流感病毒,深蓝色表示AI使50%的非专业人员具备此能力。横轴显示了从基线(当前状态)到各种监管响应措施的不同情景,包括开放权重模型的自愿或强制性核酸筛查,以及封闭权重模型配备严格保障措施的不同筛查方案。
关键发现是:基线风险约为0.3%,当AI显著提升非专业人员的病毒合成能力时,风险会增加到0.5%-1.25%之间。随着监管措施的加强(从开放权重自愿筛查到封闭权重强制筛查),风险逐步降低,最严格的监管措施可将风险降至接近基线水平。这表明适当的AI治理和生物安全措施对于控制AI增强的生物风险至关重要。
03.政策制定者将面临艰难选择
在AI能力突飞猛进、治理机制仍未完全成型的背景下,生物安全领域正处于紧迫的政策窗口期。研究者建议,各国政府和AI开发企业必须协同制定应对机制。
OpenAI和Anthropic等领先AI公司已表态,将继续推进模型能力评估,并实施更严格的滥用防范政策。与此同时,实验室合成行业的监管也亟需升级,以应对AI工具广泛赋能所带来的现实风险。
FRI在研究报告中对此总结称:“我们正进入一个AI改变病毒构建门槛的新时代——这项能力既可以用于疫苗与治疗开发,也可能被用于制造灾难。”(文/腾讯科技特约编译 无忌 海伦)