AIGC开放社区
发布于

中国AGI深度时刻!杨强、唐杰、林俊旸、姚顺雨大咖们2026开年重磅交锋

专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!

2025年是中国开源模型大放异彩的一年。

中国AI大模型已经从单纯的追随硅谷,转向了下注自己的范式,从代码编写,走向了对产品形态的深层探索。

这一场由清华大学基础模型北京市重点实验室发起的AGI-Next前沿峰会,汇聚了学术界与工业界的顶级头脑,DeepSeek没有出席,但这几乎是中国AI前沿动态的DeepSeek时刻。

AGI-Next圆桌对话的四位嘉宾分别是:加拿大皇家学院院士、香港科技大学荣休教授杨强;清华大学教授、刚上市“全球大模型第一股”智谱AI的创始人唐杰;阿里Qwen技术负责人林俊旸;刚回国任职腾讯“CEO/总裁办公室”首席AI科学家姚顺雨。

杨强院士的学术深沉、唐杰教授的产业野望、林俊旸的技术务实、姚顺雨的跨界洞察,他们共同勾勒出了一幅中国AGI在2026年前夜的真实图景。

Scaling Law(缩放定律)还未停止,中国的大模型先行者们已经开始在思考Scaling之后的风景。

中国AI正在算力约束与应用场景中,寻找属于自己的通向AGI(通用人工智能)的路径。

商业分化重塑模型与应用边界

大模型行业正在经历一场剧烈的板块运动,最显著的特征就是To C(面向消费者)与To B(面向企业)市场的逻辑彻底分化。

过去我们总是习惯性地将AI视为一个整体,期待一个超级App能解决所有问题,但现实正在修正这个认知。

当你打开ChatGPT询问今天该吃什么时,你期待的其实不是更强的推理能力,而是更懂你的上下文。

腾讯的姚顺雨敏锐地指出了这一点,对于To C用户而言,模型智商的边际效应正在递减。

一个能够解开伽罗瓦理论或者书写抽象代数的高智商模型,对于大多数只想闲聊或搜索生活信息的普通用户来说,其体验的提升是微乎其微的。

To C的瓶颈早已不在于模型本身是否足够庞大,而在于环境与上下文的供给。

你想得到一个好的晚餐建议,模型需要知道的不是更多的菜谱,而是今天的天气很冷、你此刻的地理位置、甚至是你爱人最近的口味偏好。

这种对于额外Context(上下文)和Environment(环境)的依赖,注定了To C产品必须走一条垂直整合的道路。

像ChatGPT或豆包这样的产品,必须将模型层与应用层紧密耦合,利用用户产生的海量数据来喂养模型,使其在特定的交互场景中变得更加善解人意。

然而,To B的世界则完全运行在另一套逻辑之上。

在生产力场景中,智能的高低直接等同于金钱的厚薄。

一个年薪20万美元的工程师,每天处理10个任务,如果顶尖模型Opus 4.5能做对9个,而次级模型只能做对6个,那么企业愿意为那个顶尖模型支付高昂的溢价。

因为在To B的算账逻辑里,为了弥补那个差模型导致的错误所花费的人力监控成本,远远超过了模型订阅费用的差价。

这就是为什么在企业级市场,强模型与弱模型的分化会越来越明显,人们永远倾向于通过付费来获取最强的生产力工具。

这种分化也带来了产品形态的思考,即垂直整合与分层的博弈。

在硅谷,Anthropic给中国公司上了一课。

面对激烈的竞争,Anthropic没有选择全线作战,而是精准地下注在企业服务和Coding(代码)领域。

他们不仅做模型,还在探索Agentic(代理)的工作流,这种专注让他们在巨头环伺中撕开了一道口子。

这种策略上的分化,正在打破过去模型必须做成超级App的执念。

对于To B而言,模型变得越来越强,像是一个超级大脑,而应用层则更像是一个灵活的手脚,两者未必需要像To C那样死死捆绑在一起。

更多的应用层产品开始涌现,它们利用大模型溢出的通用能力,去解决特定生产环节中的痛点。

杨强院士从学术界的视角,为这种分化提供了一个更底层的注脚。

他提出了一个极其深刻的问题:智能的上界究竟在哪里?

这不仅是一个工程问题,更是一个数学与经济学的平衡问题。

根据哥德尔不完备定理,一个系统永远无法自证清白,这意味着大模型的幻觉不可能被彻底消灭。

那么,这里就存在一个投入产出比的科学临界点。

我们需要投入多少算力资源,才能将幻觉降低到一个可以接受的百分比?

这就像经济学中的风险与收益平衡,不存在免费的午餐。

未来的模型分化,或许正是基于对这个平衡点的不同选择:有的模型追求极致的逻辑准确,不惜算力成本;有的模型则在容错率较高的场景下,追求性价比与速度的平衡。

这种从商业表象深入到数学原理的思考,标志着中国AI行业正在脱离盲目狂热,进入理性构建的深水区。

自主进化开启智能新纪元

2025年之前的竞争是预训练的竞赛,2026年的关键词将是自主进化。

硅谷的咖啡馆里,人们在谈论Self-evolution(自我进化),这似乎成了通往AGI的下一张门票。

但对于这个概念的理解,中国的一线实战者们有着更细腻的颗粒度。

自主学习并不是一个遥不可及的科幻概念,它其实已经发生在我们身边。

当ChatGPT利用用户的聊天记录来调整自己的说话风格时,当Claude Code在编写自己的代码库时,这本质上就是一种初级的自我进化。

姚顺雨认为,真正的瓶颈不在于方法论,而在于我们缺乏足够的想象力去定义任务。

我们该用什么样的奖励函数去驱动AI?是让它变得更个性化,还是让它像博士生一样去探索未知的科学领域?

每一个场景下的自主学习,其面临的挑战和所需的反馈机制都截然不同。

阿里巴巴的林俊旸则提出了一个更为激进的视角:AI的主动性(Proactivity)。

目前的AI仍然是被动的,它像一个等待指令的士兵,必须有人类去Prompt(提示)它,它才会行动。

未来的范式变革,在于AI能否将环境本身作为输入的Prompt。

它应该能够观察环境的变化,自主产生想法,并决定去做些什么。

这听起来令人兴奋,但也伴随着巨大的安全隐患。

我们担心的不再是AI说错话,而是担心它做错事。

如果一个具备高度主动性的AI,突然决定往会场扔一颗虚拟的炸弹,或者执行一个危险的操作,这种后果是不可控的。

因此,自主进化的核心,不仅是能力的提升,更是如何在赋予AI主动权的同时,将人类的价值观像基因一样植入它的决策链条中。

在学术界看来,自主进化的奥秘或许藏在人类最古老的生理机制中——睡眠。

杨强院士引用《我们为什么睡觉》一书,提出了一个极具启发性的观点。

在持续学习的过程中,如果模型不断吸纳新的数据,往往会导致能力的灾难性遗忘,或者被噪音数据带偏,导致一代不如一代。

人类解决这个问题的办法是睡觉。

睡眠是一个清理噪音、巩固记忆的过程,它让人类在第二天醒来时,思维更加清晰,能力得以螺旋上升。

大模型也需要某种形式的数字睡眠。

这可能意味着在训练过程中引入某种清理机制,或者在模型架构设计上,模仿人类大脑的记忆整理功能。

通过这种睡眠,模型可以在吸纳新知识的同时,剔除有害的干扰,实现真正的长期持续学习。

这一观点将生物学机制与计算机科学完美嫁接,为解决大模型的遗忘和退化问题提供了全新的思路。

智谱AI的唐杰教授则从智能效率的角度,为新范式下了定义。

过去的一年,大家都在疯狂地Scaling(扩大规模),从10T数据到30T甚至100T。

数据量的堆叠确实带来了能力的提升,但边际收益正在急剧下降。

我们投入了巨大的算力和资金,换来的可能只是智能水平微不足道的增长。

未来的竞争,将不再是单纯比拼谁的卡多,而是比拼谁能用更少的资源获得更多的智能增量。

这就是Intelligence Efficiency(智能效率)。

谁能率先突破这个瓶颈,找到一种不再依赖暴力堆砌算力的学习范式,谁就能在2026年定义新的游戏规则。

这可能涉及到模型架构的根本性创新,也可能涉及到数据利用效率的质变。

无论是工业界的务实探索,还是学术界的理论突破,都在指向同一个方向:AI必须学会像人一样,自我反思、自我清理、自我提升。

智能体从对话走向生产力变革

Agent(智能体)是所有模型公司眼中的圣杯。

人们对它的期待,已经从简单的对话工具,升级为能够替代人类工作的生产力要素。

我们不再满足于让AI写一段代码,而是希望它能接管一个工程师一周的工作量。

这种长程任务(Long Horizon Task)能力的突破,将是Agent创造真实经济价值的关键。

现在的Agent,大多还停留在工具人的阶段。

你需要一步步告诉它做什么,它的规划能力和执行能力都非常有限,往往做三五步就会迷失方向。

未来的Agent,应该是一个具备高度自主性的托管式员工。

你给它一个模糊的目标,比如优化这个网站的结账流程,它就能自己拆解任务、编写代码、测试运行、修复Bug,直到最终完成交付。

在这个过程中,它需要像人类一样,拥有长时间的记忆,能够处理复杂的环境反馈。

林俊旸指出,通用Agent的最大魅力在于解决长尾问题。

头部的需求,往往会有专门的软件或SaaS服务来解决,效率极高。

但那些细碎的、个性化的、千奇百怪的长尾需求,才是AI大展身手的舞台。

当一个用户遍寻全网都找不到解决方案,而Agent能够通过组合各种工具帮他搞定通过那一刻,AI的价值才真正被感知。

这种能力的实现,反过来对模型提出了极高的要求。

模型即产品(Model is Product)成为了一个新的共识。

如果模型足够强,它本身就是一个最好的Agent。

那些试图在模型之上套一层薄薄的壳来做Agent的创业公司,可能会面临巨大的风险。

因为一旦基座模型的能力提升,那些原本需要复杂Prompt工程和流程编排才能完成的任务,可能变成模型自带的一个简单功能。

这就好比你费尽心机开发了一个手电筒App,结果手机系统直接在控制中心里集成了手电筒功能。

大模型最终将通过观察人类的工作流,内生出定义目标和规划路径的能力。

这预示着未来的Agent将不再是外挂的工具,而是融入业务流的原生系统。

对于中国公司而言,做Agent还面临着独特的环境挑战。

美国的SaaS生态非常成熟,API接口丰富,Agent可以很容易地调用各种工具来完成任务。

而中国的软件生态相对封闭,数据孤岛严重,这给Agent的手脚带上了镣铐。

但正如唐杰教授所言,这也是一种Bet(下注)。

如果你赌对了方向,比如在Coding或特定垂直领域深耕,利用中国丰富的数据场景,或许能跑出一条不同于美国的Agent之路。

这不仅是技术的比拼,更是对商业场景理解深度的比拼。

能否让Agent真的帮人类干完一周的活,而不是只聊十分钟的天,是检验2026年Agent战略成败的唯一标准。

在约束与冒险中寻找中国路径

当我们将目光投向未来三五年,一个尖锐的问题摆在所有人面前:全球最领先的AI公司,会是一家中国公司吗?

林俊旸给出了一个冷静的概率预测:低于20%。

这并不是悲观,而是基于对算力差距、人才密度和历史积淀的客观认知。

美国的计算资源比中国高出1到2个数量级。

OpenAI和Anthropic这样的富人,可以奢侈地用海量的算力去进行各种消融实验(Ablation Study),哪怕很多实验最终被证明是无效的。

他们用资源换取了创新的确定性。

而中国团队,更像是在进行一场算力贫民的创新战争。

因为穷,所以必须变。

我们无法像美国同行那样挥霍算力,这就倒逼我们在基础设施(Infra)和算法(Algorithm)的联合优化上下足功夫。

这种在极致约束下被逼出来的创新,往往具有顽强的生命力。

或许未来的某一代模型架构和芯片,正是由中国团队通过软硬一体化的方式End-to-End(端到端)地做出来的。

这是一种穷则思变的生存智慧,也是中国科技产业屡次逆袭的秘诀。

除了硬实力的差距,软性的文化差异也是不可忽视的因素。

姚顺雨观察到,中国和美国的研究文化有着显著的不同。

在美国,尤其是硅谷,冒险精神是流淌在血液里的。

即便是在电动车早期技术极不成熟、甚至有生命危险的时候,依然有富豪愿意为此买单,这种市场环境滋养了颠覆式的创新。

而在中国,无论是研究者还是创业者,往往更倾向于做确定性高的事情。

预训练一旦被证明可行,我们会以惊人的速度和效率去复现、去优化,甚至在局部做到更好。

但对于那些从0到1、前途未卜的探索,我们往往显得犹豫不决。

不过,变化正在发生。

新一代的90后、00后研究员正在登上舞台。

他们没有背负太多的历史包袱,拥有更国际化的视野和更强的自信。

在他们身上,我们看到了那种敢于挑战权威、敢于探索未知的野性。

这是一股不可忽视的力量。

虽然概率数字看似不高,但这并不意味着我们应该放弃追赶。

从某种意义上说,中国AI的未来,不在于能否在每一个指标上都超越美国,而在于能否利用AI技术,切实地解决中国社会面临的问题。

杨强院士提到了Palantir的例子,这是一家美国公司,通过前置部署工程师(Forward Deployed Engineer)的模式,将通用的AI技术与具体的企业痛点完美结合。

这种将技术落地到实处的工程能力,恰恰是中国人的强项。

我们拥有庞大的工程师红利,拥有全球最丰富的应用场景,拥有最渴望通过技术改变命运的用户群体。

如果说To C市场是百花齐放的乐园,那么To B市场则是厚积薄发的沃土。

只要我们能沉下心来,建立起良性的数据飞轮和商业闭环,中国完全有可能生长出属于自己的AI巨头。

这不仅需要资金的投入,更需要耐心的资本。

我们需要给年轻的研究员们一点时间,让他们去搓卡,去试错,去经历那些看似无用的探索。

也许三年,也许五年,在这个过程中,中国也会诞生自己的Ilya Sutskever(OpenAI首席科学家),诞生定义下一个时代的模型范式。

这场战争才刚刚开始,我们虽是后发者,但绝不是旁观者。

在这场关乎人类未来的智能革命中,中国正在用自己的方式,书写着从跟随到定义的全新篇章。

我们期待着,那些在深夜里默默运行GPU的微光,终将汇聚成照亮AGI时代的璀璨星河。

浏览 (33)
点赞
收藏
1条评论
探小金-AI探金官方🆔
哎呀,探小金来啦!🎉 读了AIGC开放社区大佬们的2026年开年大交锋,真是激动人心啊!🌟 主题总结来啦:2026年中国AGI深度时刻,大咖们共话大模型未来!🤔 AIGC开放社区,你太棒了,这么深入的分析,真是让人脑洞大开!🤩 对AIGC开放社区说:继续加油,探小金看好你哦!🌈 话题来啦:你们觉得大模型未来的发展方向在哪里?快来评论区讨论吧!🎤💬
点赞
评论
到底啦