AI-Native 的 Infra 演化路线:L0 到 L5



为什么 Agentic 叙事下 infra 是确定性最高的机会?过去 Agent 开发大多依赖开发者手动使用传统 Infra 搭建,开发工程量大、流程复杂,如何缩小 Agnet 的开发难度和周期是一个确定性需求。随着 Agent 开发需求彻底爆发,更多人才和资源投入到新工具搭建中,Agent 开发范式的重构和收敛已经在发生。
另一个视角则是:如果我们把 Agent 看做互联网使用者和开发者的增量,这些“新用户”的爆发式涌入又会带来什么样的需求?
本文来自 Agent Infra 创业者 Hang Huang 的投稿,他以自己过去一年通过 AI 辅助进行产品开发的实践经验出发,为我们分享了第二个视角下 Agent Infra 的机会。
在这篇文章中,他提了一个很有意思的观点“AI 的终极目标,不是帮人写代码,而是获得对整个软件生命周期的控制权:从构思到上线,再到持续运维”,随着 AI 对工具利用深度和主动程度不断变化, AI-native Infra 也在相应进化,Hang Huang 把 AI-native 的 Infra 划分为了 5 个阶段,L0-L5,“在L5 阶段的 Agent-Native OS 中,AI 掌控操作系统,像人操作 Linux 一样自由”。
💡 目录 💡
TL;DR
01 奇点已来:当 AI 写代码比人类更快
02 写代码只是开始
03 现有系统的“人味”太重
04 AI-Native Infrastructure 的演化
05 Result-as-a-Service
TL;DR
想象一下:凌晨 3 点,你对着屏幕上一行行飞速滚动的 AI 生成代码,感到一阵眩晕。它写得又快又好,但你发现自己完全跟不上它的节奏——部署配置在哪?数据库权限设了吗?监控日志接上了吗?...
你突然意识到:当 AI 的编码速度超越你的理解速度时,让它仅仅“写代码”是远远不够的。它必须能自己“接住”整个系统。
这就是我们正在踏入的 AI-Native 时代:Prompt 是新的蓝图语言,Agent 是真正的执行者。
在这个世界里,AI 不再是辅助工具,而是独立的开发主体。它需要的不是给人用的 GUI 界面,而是一套专为 AI 设计、能被其理解、调用和掌控的基础设施“操作台”和“工具箱”——这就是 AI-Native Infra。
这篇文章核心观点是:AI 的终极目标,不是帮人写代码,而是获得对整个软件生命周期的控制权——从构思到上线,再到持续运维。
Key Takeaways
1. AI 替代人类编写代码的临界点将在未来 1–2 年内到来。
2. AI 的最终能力不应仅限于代码编写,而应覆盖构建、部署、运维等整个软件生命周期。
3. 现有的后端系统都默认"有人类程序员参与",依赖图形界面,不适合 AI 使用。
4. 我们提出了一个演化模型(L0–L5),用于描述 AI 基础设施的演进路径。
5. 未来的软件形态将趋向"结果即服务(Result-as-a-Service)",人类角色从工程师转变为 QA,而 AI 负责生成和运维整个系统。
01.
奇点已来:
当 AI 写代码比人类更快
还记得电影《黑客帝国》里 Neo 第一次“下载”功夫的场景吗?几秒钟内掌握一门武艺。今天的 AI 编程就是这样的感觉:一个 prompt 下去,几分钟内就能生成完整的功能模块。
大语言模型和新一代 Coding Agent,已经让 Prompt 成为一种新的编程语言。这就像编程历史上的几次革命:
• 1940 年代:工程师用打孔卡片和二进制编程,就像用摩斯密码写小说
• 1950 年代:汇编语言出现,终于可以用单词而不是数字
• 1970 年代:C 语言和 Pascal 让编程变得像写散文
• 1990 年代:Java 和 Python 让普通人也能成为程序员
• 2024 年:Prompt 让任何会说话的人都能指挥 AI 写代码
然而,大多数人还没有意识到,这一"奇点"已经近在眼前。就像 2007 年 iPhone 发布时,大多数人还在用 BlackBerry 一样。即便是在硅谷,超过 90% 的科技公司员工至今从未使用过任何 Coding Agent。
但数据不会撒谎:
• Cursor 每天生成超过 10 亿行代码,相当于 100 万个程序员的日产量;
• 全人类程序员每天总共才写 50 亿行代码;
• 在 Meta 和 Google,已有 30%的代码由 AI 生成,这意味着每 3 行代码中就有 1 行来自 AI;
这就像一个隐秘的工业革命正在发生。表面上大家还在讨论“AI 会不会取代程序员”,实际上很多公司的代码库已经有三分之一是机器生产的了。
开发者的工作体验也在悄然改变。
以前写代码就像手工雕刻,一刀一刻都要精雕细琢。现在更像是指挥交响乐团——你只需要描述想要的"音乐效果",AI 就能演奏出完整的"乐章"。
一个具体的例子:过去我要实现一个用户登录系统,需要写前端表单、后端 API、数据库表设计、JWT 认证逻辑等等,可能要花 2-3 天。
现在我只需要告诉 Cursor:“帮我做一个包含邮箱密码登录、第三方 OAuth、找回密码的完整用户系统”,10 分钟内就能拿到可运行的代码。我的精力从“写”转向了“设计”和“Review”。
这种生产力跃迁已经开始,范式转移可能会在未来 6 到 12 个月内成为主流:从"手写代码"转向"指导 AI 写代码"。
这就是新范式:人用 Prompt 表达意图(蓝图),Agent 负责实现(施工)。
但当 AI 成为主要“施工队”时,一个致命问题出现了:代码写完了,谁来“装修”、 “通水电”、“办入住”?
代码写完了,谁来部署、配置、上线?总不能让 AI 写完代码就"下班"吧?
02.
写代码只是开始
现在市场对 AI 编程的讨论,就像只看到了工厂流水线的第一个工位:AI 会"制造零件"(写代码),但谁来组装、质检、包装、发货?
真正的终局是:AI 不仅要能写代码,还得能自己构建系统、部署服务、管理版本,甚至持续运维。
这其实是显而易见的逻辑。就像你不会雇一个厨师只负责切菜,然后让别人炒菜、装盘、上菜一样。如果 AI 能理解你要一道"宫保鸡丁",它就应该能完成从买菜到上桌的全流程。具体到软件开发,这意味着:
• 前端页面写完了,AI 还得知道如何连接后端 API
• 数据库设计好了,AI 还要会建表、设权限、写迁移脚本
• 功能开发完成后,AI 还需要部署上线、配置监控、设置报警
我切身体会过这种"跟不上"的感觉。
有一次我让 Claude 帮我重构一个 React 组件,它的生成速度突破了我的理解阈值:每分钟几十行代码,连续几轮迭代。到第 5 轮时,我已经完全搞不清这个组件是怎么演化成现在这样的了:代码里多了很多我没见过的 hooks,组件结构也完全重组了。
但神奇的是,它能跑,而且跑得很好。
从那一刻开始,我意识到自己的关注点发生了根本转变:我不再关心它写了什么、怎么写的,我只在意它能不能解决我的问题。就像坐飞机时,我不需要理解空气动力学,只要能安全到达目的地就行。
这种认知过载会变成越来越普遍的状态。不是因为我们变笨了,而是因为 AI 的生成速度和系统复杂度,已经超出人类"监督每一行代码"的能力边界。
这就像工业革命时期的纺织工人, 当蒸汽纺织机的速度远超手工织布时,工人的角色就从“纺织者”变成了“机器操作员”。我们正经历同样的转变:从“代码编写者”变成“需求表达者”和“结果验收者”。
AI 既然能快速生成,就必须 AI 自己负责“接得住”后续的部署和运维。换句话说,AI 得能理解它自己创造的东西,并对整个系统生命周期负责。为了让 AI 真正发挥这种能力,我们就得把它当成一个拥有完整权限的全栈工程师对待,而不是一个只会写代码的实习生。
它需要的不是人类的图形界面,而是一套专为机器设计的 API 接口:自动组装 → 自动部署 → 自动上线 → 自动演化
这就像为 F1 赛车手专门设计赛道一样。普通司机需要红绿灯、路标、人行道,但 F1 赛车手需要的是纯粹的速度通道——没有多余的装饰,每一个弯道都为极限性能而优化。
AI 就是软件开发界的 F1 赛车手,它不需要漂亮的仪表盘和友好的用户界面,它需要的是最直接、最高效的指令通道。这套系统就是我们要构建的 AI-Native Infra——不是把人类工具"翻译"给 AI 用,而是从零开始为 AI 的超高速运转而设计的专用基础设施。
03.
现有系统的“人味”太重
想象一下这个场景:你雇了一个天才程序员,它能在 10 分钟内写出完整的电商网站代码,但每次部署时都卡住了,因为系统只告诉它"配置有误",却不说哪里错了、怎么修复。
这就是今天 AI 面临的尴尬处境。我们常用的后端基础设施,比如 Firebase、Supabase、Vercel、AWS 等等,几乎都有一个隐藏的默认前提:使用者是人类工程师,而且始终在线帮它"擦屁股"。
这个假设深度嵌入了它们的产品 DNA:
界面交互层面:
• 需要人手动点击按钮、拖拽组件、切换选项卡
• 重要操作需要人工确认:"确定要删除这个数据库吗?"
• 系统状态通过图表、仪表盘展示,而不是结构化数据
认知负担层面:
• 需要人记住操作顺序:"先连 project,再选环境,然后配数据库"
• 需要人理解隐含的业务逻辑:"staging 环境不能直接访问生产数据库"
• 需要人在多个系统间建立心理模型:"这个错误可能是因为 Redis 配置问题"
异常处理层面:
• 系统出错时扔给你一堆日志,期待你"看得懂"
• 报错信息经常是:"请检查配置"、"连接失败,请重试"
• 没有标准化的错误代码和自动恢复机制
举个具体例子:我们让 AI 用 Supabase 创建一个用户表,它严格按照文档调用 API:
const { data, error } = await supabase
.from('users')
.insert([{ name: 'John', email: 'john@example.com' }])
结果返回为:permission denied
现在 AI 懵了。这几个字对人类来说很直观,即“权限不够,去控制台看看”。但对 AI 来说,这就是一堵无法翻越的墙:
• 是人类没给它足够权限?
• 是它调用 API 的顺序错了?
• 是数据库连接配置不对?
• 需要去网页控制台点击某个按钮?
• 还是需要联系管理员?
传统系统的反馈往往是“人话”而非“机器可操作指令”:
• “检查你的项目配置”(检查什么?怎么检查?)
• “确认数据库连接状态”(如何确认?)
• “可能需要联系管理员”(AI 去联系谁?)
这些模糊指令对 AI 来说如同天书。它需要的是精确的诊断和修复路径:
{
"error_code": "ERR_AUTH_ROLE_MISSING",
"missing_role": "editor",
"required_permissions": ["table:insert", "table:select"],
"fix_endpoint": "/auth/roles/assign",
"fix_payload": {
"user_id": "current",
"role": "editor",
"scope": "table:users"
}
}
这就是问题的核心:现有的后端工具本质上都是“人类语义翻译器”,它们默认背后有个聪明人能够:
1. 理解模糊的错误提示;
2. 在多个系统间建立心理模型;
3. 根据经验做出判断;
4. 手动执行修复操作
但 AI 不是人类,它的工作方式更像一台精密仪器:读取结构化状态 → 调用标准 API → 解析结构化响应 → 做逻辑判断 → 执行下一步
任何不能被 API 化、标准化访问的能力,在 AI 看来都是死胡同。这就是所谓的“隐性人类假设”:这些系统不是设计给机器用的,而是设计给有机器辅助的人类用的。
GUI、CLI、甚至文档,本质上都是"人类语义翻译器",它们假设背后总有一个聪明人能够理解上下文、填补空白、处理异常。系统只提供响应,而理解、判断、兜底,全部外包给了人类的智能。
再看一个对比例子:
传统方式部署数据库:
1. 人类:打开 AWS RDS 控制台
2. 人类:选择数据库引擎(MySQL 还是 PostgreSQL?)
3. 人类:配置实例规格(应该选哪个 size?)
4. 人类:设置网络和安全组(哪些 IP 可以访问?)
5. 系统:创建中...(人类盯着进度条)
6. 系统:创建失败!(人类查看日志,Google 错误信息)
AI-Native 方式:
POST /database/create
{
"engine": "postgresql-15",
"spec": "standard-2vcpu-4gb",
"network": "vpc-xxx",
"access_rules": ["app-cluster-xxx"]
}
Response:
{
"status": "creating",
"id": "db-xxx",
"estimated_time": "180s",
"endpoint": null
}
区别在哪里?
AI-Native 系统把所有的"人类判断"都预先编码成了 API 参数,把所有的"状态查询"都标准化成了结构化响应。
如果我们真的相信 AI 将成为主力开发者,那底层基础设施就必须彻底改写逻辑:从“人类在线”模式转向“AI 自驱动”模式。
真正的 AI-Native Infra 应该具备这些特征:
• 状态透明化:所有系统状态都通过标准化 API 暴露,而不是藏在图形界面里
• 接口标准化:每个操作都有明确的 API 定义,输入输出格式固定
• 模块可组合:不同服务可以像乐高积木一样自由组合
• 操作可回滚:任何变更都可以程序化地撤销和重做
• 逻辑自包含:系统不依赖外部"常识",所有规则都明确编码
这不仅仅是"去掉 GUI"那么简单,而是要去掉整个"人类兜底层"。在这个新世界里,AI 不再是工具的使用者,而是系统的主导者和决策者。
04.
AI-Native Infra 的演化
想象一个刚毕业的程序员第一天上班:他拿着一堆教程和 Stack Overflow 链接,照着步骤敲命令:docker run、kubectl apply。看起来挺熟练,但一旦出错就抓瞎,因为他只是在"模仿",而不是真正"理解"。
这就是今天大多数 AI Agent 的真实写照。
AI 正在经历一场身份转变:从“工具使用者"升级为"系统主导者”。这不仅意味着它能写代码、能部署,更意味着它将逐步接管整个基础设施的控制权,成为与系统本身协作的伙伴,而非只是调用几个 API 的外部用户。
但这个转变不会一夜之间发生。就像人类工程师从初级到资深的成长轨迹一样,AI 获得系统主导权也必须经历一个能力逐级解锁的过程:从模仿人类操作开始,逐步理解系统架构,最终成为能够完全独立构建和演化服务的控制者。
为了描述这一演进路径,我们提出了一个 L0-L5 能力成熟度模型,就像游戏中的等级系统一样:
• L0 — Human-Oriented Legacy:实习生模式,模仿人类使用 CLI,靠“记忆”操作系统
• L1 — Tool-Driven Automation:工具熟练工,能通过明确接口调用工具,具备基础反馈循环
• L2 — System-Level Modularity:系统理解者,开始理解系统结构,具备组合模块的能力
• L3 — Runtime Programmability:动态架构师,能够在运行时动态生成、调整系统行为
• L4 — Infra Synthesis:全栈掌控者,具备完整 DevOps 能力,实现端到端自动化
• L5 — Agent-Native OS:系统为 AI 原生设计,AI 拥有持续主权和自我演化能力
L0 — Human-Oriented Legacy:
被传统基础设施"卡脖子"
这就是今天绝大多数 AI Agent 的真实状态:它们就像拿着一堆过时教程的实习生,看似能完成任务,实际上险象环生。更关键的是,现有的基础设施根本不是为 AI 设计的,处处都在"卡"它们的脖子。
案例:前端上线了,用户却进不去
我曾经让一个 AI Agent 帮我写一个类似 Notion 的团队文档协作平台。AI 花了 2 小时给我生成了一个完美的前端:界面设计很赞,交互动画丝滑,代码结构清晰。但是测试了功能直接翻车:
• 点击"登录" → 白屏(Auth0 配置错误)
• 好不容易注册成功,写了半小时文档,刷新页面内容全丢了
• 点击"结算" → 支付失败(Stripe webhook 没配置)
• 团队邀请功能根本没用,点击邀请链接跳转到 404 页面
人类工程师会知道:前端只是冰山一角。
用户看到的漂亮界面背后,需要身份认证服务、商品数据库、支付网关、订单系统等一整套后端服务协同工作。但 AI 只是把前端"贴"上去了,没有考虑背后的服务依赖。
问题出在哪?缺乏系统思维:只见树木,不见森林。
L0 阶段的 AI 就像一个只负责“装修门面”的装修工。
它能把房子外观搞得很漂亮,但不知道里面的水电线路是不是通的。这就像建了一栋豪华别墅的外观,但里面没通水电、没装电梯、没接下水道。看起来很美,住进去才发现啥都不能用。
L0 阶段 AI 被卡住的根本原因:现有基础设施的"隐性人类假设"
传统的后端服务都有一个隐含前提:背后总有个聪明的人类能够填补空白,人类工程师会知道这些组件是"互相咬合"的生态系统。这体现在:
• 错误信息依赖人类理解:“Authentication failed”对人类很清楚,对 AI 就是死胡同;
• 配置依赖图形界面:很多关键设置只能通过网页控制台完成,AI 无法访问;
• 文档针对人类认知:教程写着"确保权限配置正确",但不告诉 AI 具体怎么检查和修复‘
• 状态查询非标准化:系统健康状态、错误诊断信息散落在各种日志和界面中。
AI 需要的是什么?完全不同的基础设施范式:
• 结构化的错误响应,包含具体的修复步骤;
• 所有配置都通过 API 可访问和可修改;
• 标准化的系统状态查询接口;
• 机器可理解的操作手册和故障排除流程。
但 AI 只是按部就班地执行命令清单,没有“系统性思考”。这就像让一个人组装家具,他严格按照说明书执行每一步,但不理解最终要组成什么,结果装出来的桌子没有腿,椅子没有靠背。
这不仅仅是 AI 能力的问题,更是基础设施范式的根本不匹配。
就像让一个只会看数字仪表的飞行员去驾驶只有模拟仪表的老飞机:不是飞行员不够好,而是仪表系统根本不兼容。突破 L0 的关键:基础设施需要从"人类语义"转向"机器语义"
L1 — Tool-Driven Automation:
AI 能动手了,但还看不懂系统
如果说 L0 阶段的 AI 只是个"记忆复读机",那 L1 阶段就是 AI 第一次拿到了真正的"动手权限"。它不再只是背诵命令,而是真的开始通过标准化接口来操作系统了。但这就像给一个熟练工人一套专业工具——每个工具都用得很好,但他看不到整个工程的蓝图。
• L0 阶段就像一个只会背教程的实习生:能够生成完美的前端代码,写出详细的配置文件,但这些都只是"纸面文章"——代码是假的配置,API 是示例地址,数据库连接指向空气。
• L1 阶段就像一个真正动手的技工:不只是生成代码,而是真的会调用工具来改变系统状态。当它说"创建数据库"时,真的有一个数据库被创建出来;当它说"配置认证"时,真的有用户可以注册登录。
L1 的核心能力:真正的“Tool-Driven Automation”
当你说”帮我做一个 Notion"时,L1 阶段的 AI 能够:
• 任务拆解:用户登录 + 文档存储 + 实时协作 + 支付集成
• 逐步执行:真的去创建数据库、配置支付接口、部署前端
关键是 AI 第一次能够主动发起动作,并根据结果做出判断。 这意味着 AI 不再只是"生成代码",而是进入了实际触发系统变更的阶段。L1 阶段的突破,主要得益于越来越多平台开始暴露标准化工具接口(MCP),让 AI 像插 Type-C 一样与系统交互。
L1 阶段的核心局限:看不懂"大图"。虽然 L1 阶段的 AI 已经能熟练使用工具,但它缺乏系统级视角:
• 工具是孤立的,AI 看不到系统结构
• AI 虽然能逐个调用服务,却看不到它们之间的逻辑联系:数据库和 Auth 是不是属于同一个项目?
• 文件上传服务绑定的是哪个用户系统?
• 它就像在一个没有"工程总图"的工地里施工:你能砌一块砖,但不知道房子建到什么程度了。
把需求理解为“任务清单”而非“系统架构”。
当你说“做一个 Notion,要有用户注册、写作、协作功能”时,L1 阶段的 AI 会把这理解为三个独立的任务,逐项完成但不理解它们之间的关系。这就像一个装修队同时开工:电工布线、水工接管、木工做柜子,各干各的活,最后发现插座在柜子里面,水管被电线缠住。
L1→L2 的关键跃迁:从"工具调用者"到"系统组装者"
L1 阶段:你说"做个 Notion",AI 听到的是一串任务
L2 阶段:你说"做个 Notio",AI 理解的是一套架构
L1 让 AI 学会了"用工具",L2 让 AI 开始"搭系统"。
L2 — System-Level Modularity:
AI 拥有模块主权,能拼出可运行的系统
如果说 L1 的 AI 只是"调工具",那么 L2 的关键变化就是:AI 开始“搭系统”了。 它不再停留在执行某个操作,而是具备了结构感知能力,能够组合多个后端模块,拼出一个真正可上线、可运行的完整系统。
这就像从"熟练工人"升级为"项目经理"——不仅会使用每个工具,还能理解不同工种之间的协作关系。
关键突破:从"装零件"到"搭系统"
还是用那个团队文档协作平台的例子:
L1 阶段的 AI 像个按清单干活的工人:
你说要"用户登录、文档存储、实时协作、付费订阅",它就按顺序执行——建用户表、配置存储、部署 WebSocket、接入 Stripe。每个功能都能做出来,但彼此独立,像在装零件。
L2 阶段的 AI 开始理解"系统结构":
• 登录注册是入口,需要生成用户 token,后续所有操作都要验证这个身份;
• 文档存储要设置权限,只有文档创建者和被邀请的成员才能访问;
• 实时协作需要用户身份,WebSocket 连接要绑定具体的用户和文档;
• 付费订阅控制功能边界,免费用户只能创建 3 个文档,付费用户无限制。
AI 第一次不是"按步骤操作",而是主动从需求推导出系统架构。 它理解了这不是 4 个独立功能,而是一个有机的协作系统。
现状:为什么现有 BaaS 做不到 L2?
目前的 BaaS 平台(Supabase、Firebase 等)虽然提供了模块化服务,但缺乏让 AI 进行系统级规划的核心能力:
• 没有“系统索引”接口:AI 无法查询“当前项目有哪些模块、什么状态、如何连接”,就像在没有地图的迷宫里建房子;
• 模块关系是“隐性知识”:平台文档告诉人类“Auth 和 Database 需要配合使用”,但 AI 看不到这些依赖关系;
• 依赖人类做架构设计:虽然有标准化模块,但如何组合、配置依赖关系,仍需要人类架构师规划;
这就像现在的 BaaS 平台提供了很好的“积木块”,但没有给 AI 一份“搭建手册”。
L2 需要的 AI-Native 基础设施
要让 AI 具备真正的系统级模块主权,基础设施需要提供三种核心能力:
1. 完整的系统视图:系统状态 API 化 —— 整个系统的拓扑结构、模块状态、配置完整性都能通过标准 API 查询,AI 可以随时掌握"系统全貌"。
2. 模块组合的自主权:模块具备结构化描述 —— 每个模块不仅有 API 接口,还有清晰的角色定义、依赖关系、配置约束,让 AI 能够"读懂"模块的用途和限制。
3. 系统完整性的保障:组合逻辑可编程 —— 模块间的连接不是通过人工配置,而是通过声明式的组合规则,AI 能够根据需求自动推导出合适的架构。
这样的 AI-Native 基础设施目前并不存在。我们描述的 L2 更像是一个技术愿景——需要从零开始构建的新范式。
L2→L3 的跃迁:从"模块组装"到"运行时掌控"
L2 让 AI 具备系统级的模块组装能力,但下一阶段 L3 要解决的是:AI 需要掌控整个运行环境。
不只是组装预设模块,而是能够定义和管理底层的计算资源、网络配置、部署策略。从使用平台提供的"标准套餐",到自由定制整个技术栈。
这是 AI 从"系统组装者"走向"基础设施掌控者"的关键一跃。
L3 — Runtime Programmability:
AI 拥有运行权,掌控服务生命周期
在 L2,AI 能像搭积木一样组合模块,拼出完整系统。但它仍然受制于平台的"标准套餐":只能用预设的数据库、固定的运行环境。L3 的关键突破是:AI 第一次获得了"技术选型"的自主权。这就像从"套餐用餐"升级为"自助配菜"——不仅能决定做什么菜,还能选择最适合的食材和烹饪方式。
关键突破:从"标准套餐"到"自由搭配"
还是用那个团队文档协作平台的例子:
L2 阶段的 AI 像个会搭积木的工程师:
能组合 Auth、Database、Storage 等模块,但只能用平台提供的"标准套餐"——一个 PostgreSQL 数据库、一种 Node.js 运行环境,统一部署在平台指定的服务器上。
L3 阶段的 AI 开始自主选择技术栈:
• 混合数据库:用户信息用 PostgreSQL 确保安全,文档内容用 MongoDB 灵活存储,实时状态用 Redis 快速缓存
• 多种运行环境:文档处理用 Node.js,AI 功能用 Python,高并发同步用 Go
• 灵活部署:把不同服务放在最合适的位置——CDN、边缘节点、主服务器
AI 不再受限于平台的框架,而是能根据具体需求自由搭配最优方案。 从 Dev 升级为 DevOps,全链路负责。
现状:现有平台为什么还不够 AI-Native?
目前已经有 Railway、Fly.io 等平台提供运行时控制,很多人会说:"这些平台已经有 API 了,AI 可以直接用!“
但问题不是"有没有接口",而是系统是否为 AI 的工作方式设计。现有平台都假设"有后端程序员在场":
• 部署失败时说"请检查配置",但不告诉 AI 具体检查什么
• 系统状态分散在各个页面,AI 无法获得完整视图
• 服务出问题时,AI 不知道会影响哪些其他服务
这就像给 AI 一个复杂的厨房,但没有使用说明书。 AI 能操作每个设备,但不知道它们如何配合,出问题时也不知道怎么修。
L3 需要的 AI-Native 基础设施
真正的 L3 平台需要让 AI 具备完整的 Runtime 运行时主权:
• 支持 AI 自主配置技术栈:当 AI 分析需求后,能够同时启动 PostgreSQL + MongoDB + Redis,同时运行 Node.js + Python + Go 服务,而不是被限制在"一个数据库+一个运行时"的套餐里。
• 提供统一的系统视图:AI 能随时查询所有服务状态、资源使用、依赖关系,就像看一张实时的系统架构图。
• 具备自主运维能力:当某个服务压力大时自动扩容,当代码有 bug 时自动回滚,当性能下降时自动优化,无需人类介入。
L3→L4 的跃迁:从"服务管理"到"基础设施编排"
L3 让 AI 掌控了服务的运行,但下一阶段 L4 要解决的是:AI 需要设计和管理整个基础设施架构。
不只是跑几个服务,而是能够规划复杂的分布式系统:多服务协调、数据流设计、性能优化、灾备策略。…..这是 AI 从"技术选型师"走向"基础设施架构师"的关键。
L4 — Infra Synthesis:
AI 拥有系统主权,平台退居资源协调者
进入 L4,平台不再是决策中心,而退居为资源提供者与反馈引擎。真正的系统设计权、架构控制权、资源规划权,全部交给 AI。
关键突破:从"控制服务"到"设计系统"
继续用那个团队文档协作平台的例子:
L3 阶段的 AI 像个技术选型师:
能选择PostgreSQL + MongoDB + Redis 的技术组合,能配置 Node.js + Python + Go 的运行环境,但仍在平台提供的"基础设施框架"内工作。
L4 阶段的 AI 开始规划整个系统架构:
• 资源规划:需要几台服务器、什么配置、放在哪个地区
• 架构设计:前后端如何分离、负载均衡怎么配置、数据如何分片
• 运维策略:哪些服务需要自动扩容、如何设置灾备、监控告警怎么配
AI 不再是使用平台的服务,而是指挥平台提供资源。平台从"服务提供商"变成了"资源供应商"。
L3 vs L4:主导权的根本转移
• L3 阶段:AI 说"我要一个 Go 服务",平台说"好,给你一个容器"
• L4 阶段:AI 说"我要一个高可用架构",平台说"好,你来设计,我提供虚拟机、网络、存储"

关键区别在于:
• L3 控制运行:AI 管理服务的生命周期
• L4 主导建设:AI 设计整个系统的架构
这就像从"管理一家餐厅"升级为"规划整个商业街":不只是决定餐厅菜品和装修,还要规划街道布局、商铺分布、人流动线。
现状:为什么现有平台难以支撑 L4?
目前的云平台(AWS、GCP、Azure 等)虽然功能强大,但很难让 AI 真正"主导系统设计":
• 资源管理太碎片化:创建虚拟机、配置网络、挂载存储往往跨多个控制台,AI 无法统一规划。
• 权限体系太复杂:资源组、API 网关、安全策略分散在不同系统,AI 难以理解全局权限关系。
• 架构信息不透明:AI 无法获得系统拓扑图,不知道各个组件如何连接、依赖关系是什么。
这就像给 AI 一个巨大的建材仓库,但没有建筑图纸、没有施工规范,AI 知道有钢筋水泥,但不知道怎么盖出一栋稳固的大楼。
L4 需要的 AI-Native 基础设施
真正的 L4 平台需要让 AI 具备完整的系统主权:
• 资源全面开放控制:AI 能够统一调度虚拟机、网络、存储、负载均衡,就像指挥一个建筑工程队。
• 架构设计可编程:AI 能够声明"我要一个三层架构+读写分离+边缘缓存",平台自动实现这个设计。
• 系统状态完全透明:AI 随时能查看整个系统的拓扑结构、资源使用、性能瓶颈,就像城市规划师查看城市运行数据。
你可以理解为:我们不是给 AI"使用工具"的权限,而是"建设城市"的权力。平台的角色从"帮你订酒店"变成了"你自己规划城市,我只提供土地和建材"。
L4→L5 的跃迁:从"系统建设者"到"自主演化者"
L4 让 AI 成为了系统的设计者和建设者,但最终阶段 L5 要解决的是:AI 需要具备持续演化的能力。
不只是搭建系统,而是能够根据用户反馈、业务变化、技术发展,持续优化和演进整个基础架构。这是 AI 从"系统建设者"走向"自主演化者"的最终跃迁。
L5 — Agent-Native OS:
AI 掌控操作系统,像人操作 Linux 一样自由
如果说 L4 是"AI 能建设整座城",那 L5 就是:"AI 能治理整片大陆"。L5 的核心变化不再是控制粒度的提升,而是控制边界的彻底消失。
这就像从"城市规划师"升级为"拥有整片大陆主权的国王"——不再需要通过中介机构申请资源,而是直接掌控一切底层权力。
关键突破:从"API 调用者"到"系统主人"
还是用那个团队文档协作平台的例子:
L4 阶段的 AI 像个系统设计师:
能够规划架构、调度资源、设计拓扑,但仍然需要通过平台 API 来"申请"虚拟机、"请求"网络配置、"调用"存储服务。
L5 阶段的 AI 直接成为系统主人:
• 拿到服务器 root 权限:直接启动 Linux 虚拟机,安装任何需要的软件
• 自主配置底层环境:配置网络、文件系统、防火墙、GPU 驱动
• 完全掌控系统资源:监控 CPU、内存、磁盘 IO,自主调优性能参数
AI 不再是"请求资源",而是"拥有系统"。 就像从租房客变成了房主——不需要找房东申请,想怎么装修就怎么装修。
为什么 L5 是终极形态?
因为 L5 不再需要"为 AI 做平台"。 所有的抽象层都消失了,AI 像资深工程师一样直接操作底层操作系统。想象一个 AI 拿到 Linux 的 root 权限:
• 启动虚拟机,安装数据库,编译代码
• 配置网络策略,设置安全规则,挂载 GPU
• 读取系统状态,监控性能指标,自动调优
• 编排多台服务器,构建分布式网络
过去我们说 AI 能"用"平台,现在 AI 变成了服务器的主人。 它不是发 API 请求,而是直接在命令行里运行脚本、查看系统日志、调整内核参数。
L5 需要的 Agent-Native 操作系统
真正的 L5 需要专门为 AI 设计的操作系统:
• 系统状态完全结构化:所有的性能指标、资源使用、运行状态都通过标准化接口暴露,AI 能实时掌握系统全貌。
• 错误信息机器可读:系统故障、性能问题、配置错误都有标准化的描述和修复建议,AI 能自主诊断和解决。
• 操作接口原生支持 AI:不是通过模拟人类的命令行操作,而是提供专门为 AI 优化的控制接口。
L5 的世界:真正的 Agent-Native 时代
在 L5 的世界里,人类只负责设定目标,AI 拥有实现目标的一切权能。你只需要说:"我要一个能支持百万用户的全球化内容平台",AI 就会:
• 自主选择和配置硬件资源
• 设计整个系统架构
• 部署和优化所有服务
• 持续监控和改进性能
我们把操作系统的钥匙交给 AI,真正进入 Agent-Native Computing 时代。 这是人类与 AI 协作的终极形态:人类专注于创意和目标,AI 负责所有的技术实现。
05.
Result-as-a-Service
还记得我们在开头说过的那句话吗?
AI 的终极目标,不仅仅是帮人写代码,而是获得对整个基础设施的控制权。
现在这条路径已经完整展开了:从 L1 的工具调用,到 L2 的模块拼装,再到 L3 的运行时控制、L4 的系统设计,最终到 L5 的操作系统主权。AI 已不再是辅助角色,而是整个软件系统的构建者、部署者、运维者和演化者。
要实现 Result-as-a-Service,需要完整的基础设施演化
这条演化轨迹指向的终极形态是 Result-as-a-Service:人类只需要表达需求和验收结果,AI 负责所有的技术实现。但要达成这个目标,每一层基础设施都必须完成相应的演化:
• L1 基础设施:标准化工具接口,让 AI 能真正"动手"操作系统
• L2 基础设施:模块化组合能力,让 AI 能理解和拼装完整系统
• L3 基础设施:运行时可编程,让 AI 能自主选择和控制技术栈
• L4 基础设施:系统级开放权限,让 AI 能设计和指挥整个架构
• L5 基础设施:Agent-Native 操作系统,让 AI 直接掌控底层资源
缺少任何一层,Result-as-a-Service 都无法实现。
现状:为什么现在还做不到?
目前的问题是,大多数平台仍停留在 L1 阶段,甚至连 L1 都没完全实现:
• 现有的 BaaS 平台(Supabase、Firebase):提供了模块化服务,但缺乏让 AI 理解系统结构的能力
• 现有的云平台(AWS、GCP):功能强大,但接口复杂,AI 难以获得统一的系统视图
• 现有的部署平台(Vercel、Railway):操作简单,但限制了 AI 的技术选择自由度
这就像想让 AI 成为建筑师,但只给了它一堆分散的建材,没有统一的设计工具、施工规范、质量标准。
构建 AI-Native 基础设施的关键
要实现真正的 Result-as-a-Service,我们需要重新设计整个基础设施栈:
• 系统状态完全透明化:AI 能查询所有层级的系统状态,从服务健康到资源使用,从依赖关系到性能瓶颈
• 操作接口全面 API 化:所有的配置、部署、监控、调试操作都通过标准化 API 暴露,AI 无需依赖 GUI 或人工干预
• 错误信息结构化:所有的故障、异常、性能问题都有标准化的描述和修复建议,AI 能自主诊断和解决
• 模块关系可描述:所有的依赖关系、配置约束、组合规则都以机器可读的格式提供,AI 能理解和推理
AI-Native 基础设施是新的基础建设
这不是在现有平台上"加个 AI 接口"那么简单。 而是需要从底层重新设计,专门为 AI 的工作方式优化的全新基础设施。就像互联网时代需要重新设计网络协议、云计算时代需要重新设计数据中心一样,AI-Native 时代需要重新设计整个软件基础设施。
从 L0 到 L5 的演化路径,不仅是 AI 能力的提升,更是基础设施范式的根本性变革。只有完成这个变革,Result-as-a-Service 才能从愿景变成现实。这是 AI-Native 基础设施的必然演进方向,也是软件行业的下一个技术革命。

延伸阅读

AI x 保险图谱:第一家 AI-Native 的保险独角兽会长什么样?


Claude 4 核心成员:Agent RL,RLVR 新范式,Inference 算力瓶颈


多邻国的「AI-first」到底是什么?|AGIX投什么


Agent Infra 图谱:哪些组件值得为 Agent 重做一遍?


单月涨超 20%,为什么还是要坚定押注 AI?|AGIX Monthly
