中国AGI深度时刻!杨强、唐杰、林俊旸、姚顺雨大咖们2026开年重磅交锋
专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!
2025年是中国开源模型大放异彩的一年。
中国AI大模型已经从单纯的追随硅谷,转向了下注自己的范式,从代码编写,走向了对产品形态的深层探索。
这一场由清华大学基础模型北京市重点实验室发起的AGI-Next前沿峰会,汇聚了学术界与工业界的顶级头脑,DeepSeek没有出席,但这几乎是中国AI前沿动态的DeepSeek时刻。

AGI-Next圆桌对话的四位嘉宾分别是:加拿大皇家学院院士、香港科技大学荣休教授杨强;清华大学教授、刚上市“全球大模型第一股”智谱AI的创始人唐杰;阿里Qwen技术负责人林俊旸;刚回国任职腾讯“CEO/总裁办公室”首席AI科学家姚顺雨。
杨强院士的学术深沉、唐杰教授的产业野望、林俊旸的技术务实、姚顺雨的跨界洞察,他们共同勾勒出了一幅中国AGI在2026年前夜的真实图景。
Scaling Law(缩放定律)还未停止,中国的大模型先行者们已经开始在思考Scaling之后的风景。
中国AI正在算力约束与应用场景中,寻找属于自己的通向AGI(通用人工智能)的路径。
商业分化重塑模型与应用边界
大模型行业正在经历一场剧烈的板块运动,最显著的特征就是To C(面向消费者)与To B(面向企业)市场的逻辑彻底分化。
过去我们总是习惯性地将AI视为一个整体,期待一个超级App能解决所有问题,但现实正在修正这个认知。
当你打开ChatGPT询问今天该吃什么时,你期待的其实不是更强的推理能力,而是更懂你的上下文。
腾讯的姚顺雨敏锐地指出了这一点,对于To C用户而言,模型智商的边际效应正在递减。
一个能够解开伽罗瓦理论或者书写抽象代数的高智商模型,对于大多数只想闲聊或搜索生活信息的普通用户来说,其体验的提升是微乎其微的。
To C的瓶颈早已不在于模型本身是否足够庞大,而在于环境与上下文的供给。
你想得到一个好的晚餐建议,模型需要知道的不是更多的菜谱,而是今天的天气很冷、你此刻的地理位置、甚至是你爱人最近的口味偏好。
这种对于额外Context(上下文)和Environment(环境)的依赖,注定了To C产品必须走一条垂直整合的道路。
像ChatGPT或豆包这样的产品,必须将模型层与应用层紧密耦合,利用用户产生的海量数据来喂养模型,使其在特定的交互场景中变得更加善解人意。
然而,To B的世界则完全运行在另一套逻辑之上。
在生产力场景中,智能的高低直接等同于金钱的厚薄。
一个年薪20万美元的工程师,每天处理10个任务,如果顶尖模型Opus 4.5能做对9个,而次级模型只能做对6个,那么企业愿意为那个顶尖模型支付高昂的溢价。
因为在To B的算账逻辑里,为了弥补那个差模型导致的错误所花费的人力监控成本,远远超过了模型订阅费用的差价。
这就是为什么在企业级市场,强模型与弱模型的分化会越来越明显,人们永远倾向于通过付费来获取最强的生产力工具。
这种分化也带来了产品形态的思考,即垂直整合与分层的博弈。
在硅谷,Anthropic给中国公司上了一课。
面对激烈的竞争,Anthropic没有选择全线作战,而是精准地下注在企业服务和Coding(代码)领域。
他们不仅做模型,还在探索Agentic(代理)的工作流,这种专注让他们在巨头环伺中撕开了一道口子。
这种策略上的分化,正在打破过去模型必须做成超级App的执念。
对于To B而言,模型变得越来越强,像是一个超级大脑,而应用层则更像是一个灵活的手脚,两者未必需要像To C那样死死捆绑在一起。
更多的应用层产品开始涌现,它们利用大模型溢出的通用能力,去解决特定生产环节中的痛点。
杨强院士从学术界的视角,为这种分化提供了一个更底层的注脚。
他提出了一个极其深刻的问题:智能的上界究竟在哪里?
这不仅是一个工程问题,更是一个数学与经济学的平衡问题。
根据哥德尔不完备定理,一个系统永远无法自证清白,这意味着大模型的幻觉不可能被彻底消灭。
那么,这里就存在一个投入产出比的科学临界点。
我们需要投入多少算力资源,才能将幻觉降低到一个可以接受的百分比?
这就像经济学中的风险与收益平衡,不存在免费的午餐。
未来的模型分化,或许正是基于对这个平衡点的不同选择:有的模型追求极致的逻辑准确,不惜算力成本;有的模型则在容错率较高的场景下,追求性价比与速度的平衡。
这种从商业表象深入到数学原理的思考,标志着中国AI行业正在脱离盲目狂热,进入理性构建的深水区。
自主进化开启智能新纪元
2025年之前的竞争是预训练的竞赛,2026年的关键词将是自主进化。
硅谷的咖啡馆里,人们在谈论Self-evolution(自我进化),这似乎成了通往AGI的下一张门票。
但对于这个概念的理解,中国的一线实战者们有着更细腻的颗粒度。
自主学习并不是一个遥不可及的科幻概念,它其实已经发生在我们身边。
当ChatGPT利用用户的聊天记录来调整自己的说话风格时,当Claude Code在编写自己的代码库时,这本质上就是一种初级的自我进化。
姚顺雨认为,真正的瓶颈不在于方法论,而在于我们缺乏足够的想象力去定义任务。
我们该用什么样的奖励函数去驱动AI?是让它变得更个性化,还是让它像博士生一样去探索未知的科学领域?
每一个场景下的自主学习,其面临的挑战和所需的反馈机制都截然不同。
阿里巴巴的林俊旸则提出了一个更为激进的视角:AI的主动性(Proactivity)。
目前的AI仍然是被动的,它像一个等待指令的士兵,必须有人类去Prompt(提示)它,它才会行动。
未来的范式变革,在于AI能否将环境本身作为输入的Prompt。
它应该能够观察环境的变化,自主产生想法,并决定去做些什么。
这听起来令人兴奋,但也伴随着巨大的安全隐患。
我们担心的不再是AI说错话,而是担心它做错事。
如果一个具备高度主动性的AI,突然决定往会场扔一颗虚拟的炸弹,或者执行一个危险的操作,这种后果是不可控的。
因此,自主进化的核心,不仅是能力的提升,更是如何在赋予AI主动权的同时,将人类的价值观像基因一样植入它的决策链条中。
在学术界看来,自主进化的奥秘或许藏在人类最古老的生理机制中——睡眠。
杨强院士引用《我们为什么睡觉》一书,提出了一个极具启发性的观点。
在持续学习的过程中,如果模型不断吸纳新的数据,往往会导致能力的灾难性遗忘,或者被噪音数据带偏,导致一代不如一代。
人类解决这个问题的办法是睡觉。
睡眠是一个清理噪音、巩固记忆的过程,它让人类在第二天醒来时,思维更加清晰,能力得以螺旋上升。
大模型也需要某种形式的数字睡眠。
这可能意味着在训练过程中引入某种清理机制,或者在模型架构设计上,模仿人类大脑的记忆整理功能。
通过这种睡眠,模型可以在吸纳新知识的同时,剔除有害的干扰,实现真正的长期持续学习。
这一观点将生物学机制与计算机科学完美嫁接,为解决大模型的遗忘和退化问题提供了全新的思路。
智谱AI的唐杰教授则从智能效率的角度,为新范式下了定义。
过去的一年,大家都在疯狂地Scaling(扩大规模),从10T数据到30T甚至100T。
数据量的堆叠确实带来了能力的提升,但边际收益正在急剧下降。
我们投入了巨大的算力和资金,换来的可能只是智能水平微不足道的增长。
未来的竞争,将不再是单纯比拼谁的卡多,而是比拼谁能用更少的资源获得更多的智能增量。
这就是Intelligence Efficiency(智能效率)。
谁能率先突破这个瓶颈,找到一种不再依赖暴力堆砌算力的学习范式,谁就能在2026年定义新的游戏规则。
这可能涉及到模型架构的根本性创新,也可能涉及到数据利用效率的质变。
无论是工业界的务实探索,还是学术界的理论突破,都在指向同一个方向:AI必须学会像人一样,自我反思、自我清理、自我提升。
智能体从对话走向生产力变革
Agent(智能体)是所有模型公司眼中的圣杯。
人们对它的期待,已经从简单的对话工具,升级为能够替代人类工作的生产力要素。
我们不再满足于让AI写一段代码,而是希望它能接管一个工程师一周的工作量。
这种长程任务(Long Horizon Task)能力的突破,将是Agent创造真实经济价值的关键。
现在的Agent,大多还停留在工具人的阶段。
你需要一步步告诉它做什么,它的规划能力和执行能力都非常有限,往往做三五步就会迷失方向。
未来的Agent,应该是一个具备高度自主性的托管式员工。
你给它一个模糊的目标,比如优化这个网站的结账流程,它就能自己拆解任务、编写代码、测试运行、修复Bug,直到最终完成交付。
在这个过程中,它需要像人类一样,拥有长时间的记忆,能够处理复杂的环境反馈。
林俊旸指出,通用Agent的最大魅力在于解决长尾问题。
头部的需求,往往会有专门的软件或SaaS服务来解决,效率极高。
但那些细碎的、个性化的、千奇百怪的长尾需求,才是AI大展身手的舞台。
当一个用户遍寻全网都找不到解决方案,而Agent能够通过组合各种工具帮他搞定通过那一刻,AI的价值才真正被感知。
这种能力的实现,反过来对模型提出了极高的要求。
模型即产品(Model is Product)成为了一个新的共识。
如果模型足够强,它本身就是一个最好的Agent。
那些试图在模型之上套一层薄薄的壳来做Agent的创业公司,可能会面临巨大的风险。
因为一旦基座模型的能力提升,那些原本需要复杂Prompt工程和流程编排才能完成的任务,可能变成模型自带的一个简单功能。
这就好比你费尽心机开发了一个手电筒App,结果手机系统直接在控制中心里集成了手电筒功能。
大模型最终将通过观察人类的工作流,内生出定义目标和规划路径的能力。
这预示着未来的Agent将不再是外挂的工具,而是融入业务流的原生系统。
对于中国公司而言,做Agent还面临着独特的环境挑战。
美国的SaaS生态非常成熟,API接口丰富,Agent可以很容易地调用各种工具来完成任务。
而中国的软件生态相对封闭,数据孤岛严重,这给Agent的手脚带上了镣铐。
但正如唐杰教授所言,这也是一种Bet(下注)。
如果你赌对了方向,比如在Coding或特定垂直领域深耕,利用中国丰富的数据场景,或许能跑出一条不同于美国的Agent之路。
这不仅是技术的比拼,更是对商业场景理解深度的比拼。
能否让Agent真的帮人类干完一周的活,而不是只聊十分钟的天,是检验2026年Agent战略成败的唯一标准。
在约束与冒险中寻找中国路径
当我们将目光投向未来三五年,一个尖锐的问题摆在所有人面前:全球最领先的AI公司,会是一家中国公司吗?
林俊旸给出了一个冷静的概率预测:低于20%。
这并不是悲观,而是基于对算力差距、人才密度和历史积淀的客观认知。
美国的计算资源比中国高出1到2个数量级。
OpenAI和Anthropic这样的富人,可以奢侈地用海量的算力去进行各种消融实验(Ablation Study),哪怕很多实验最终被证明是无效的。
他们用资源换取了创新的确定性。
而中国团队,更像是在进行一场算力贫民的创新战争。
因为穷,所以必须变。
我们无法像美国同行那样挥霍算力,这就倒逼我们在基础设施(Infra)和算法(Algorithm)的联合优化上下足功夫。
这种在极致约束下被逼出来的创新,往往具有顽强的生命力。
或许未来的某一代模型架构和芯片,正是由中国团队通过软硬一体化的方式End-to-End(端到端)地做出来的。
这是一种穷则思变的生存智慧,也是中国科技产业屡次逆袭的秘诀。
除了硬实力的差距,软性的文化差异也是不可忽视的因素。
姚顺雨观察到,中国和美国的研究文化有着显著的不同。
在美国,尤其是硅谷,冒险精神是流淌在血液里的。
即便是在电动车早期技术极不成熟、甚至有生命危险的时候,依然有富豪愿意为此买单,这种市场环境滋养了颠覆式的创新。
而在中国,无论是研究者还是创业者,往往更倾向于做确定性高的事情。
预训练一旦被证明可行,我们会以惊人的速度和效率去复现、去优化,甚至在局部做到更好。
但对于那些从0到1、前途未卜的探索,我们往往显得犹豫不决。
不过,变化正在发生。
新一代的90后、00后研究员正在登上舞台。
他们没有背负太多的历史包袱,拥有更国际化的视野和更强的自信。
在他们身上,我们看到了那种敢于挑战权威、敢于探索未知的野性。
这是一股不可忽视的力量。
虽然概率数字看似不高,但这并不意味着我们应该放弃追赶。
从某种意义上说,中国AI的未来,不在于能否在每一个指标上都超越美国,而在于能否利用AI技术,切实地解决中国社会面临的问题。
杨强院士提到了Palantir的例子,这是一家美国公司,通过前置部署工程师(Forward Deployed Engineer)的模式,将通用的AI技术与具体的企业痛点完美结合。
这种将技术落地到实处的工程能力,恰恰是中国人的强项。
我们拥有庞大的工程师红利,拥有全球最丰富的应用场景,拥有最渴望通过技术改变命运的用户群体。
如果说To C市场是百花齐放的乐园,那么To B市场则是厚积薄发的沃土。
只要我们能沉下心来,建立起良性的数据飞轮和商业闭环,中国完全有可能生长出属于自己的AI巨头。
这不仅需要资金的投入,更需要耐心的资本。
我们需要给年轻的研究员们一点时间,让他们去搓卡,去试错,去经历那些看似无用的探索。
也许三年,也许五年,在这个过程中,中国也会诞生自己的Ilya Sutskever(OpenAI首席科学家),诞生定义下一个时代的模型范式。
这场战争才刚刚开始,我们虽是后发者,但绝不是旁观者。
在这场关乎人类未来的智能革命中,中国正在用自己的方式,书写着从跟随到定义的全新篇章。
我们期待着,那些在深夜里默默运行GPU的微光,终将汇聚成照亮AGI时代的璀璨星河。