给“龙虾”AI Agent装上记忆功能!字节开源了AI 上下文数据库:OpenViking
养虾人最近又多了一个新玩具——但光有爪子还不够,记忆得跟上啊。
OpenClaw们天天在“长记性”,上下文工程却成了新痛点:向量碎片到处飞、token烧钱如流水、检索回来一堆乱码、长期任务三天就忘光……
现在,一个开源项目直接把Agent的“大脑”升级成了可操作的文件系统?
刚刚,火山引擎Viking团队悄然放出:OpenViking

专为AI Agent打造的上下文数据库,用文件系统范式把记忆、资源、技能全部统一管理,检索可观察、加载按需来、上下文还能自我迭代。
这货刚开源不到一个月,GitHub已飙到8.3k星

当 AI 处理长期任务时,背景资料会越来越多。传统的做法是每次让 AI 干活,都让它把所有资料重新读一遍。这不仅容易丢失重点,而且会消耗大量的 Token(在 AI 世界里,消耗 Token 就是在烧钱)。别急,骂也是要付钱的。
OpenClaw Memory插件实测任务完成率暴涨43%~49%,输入token直接砍掉91%!
这要用上了,能省下多少token(钱)!特别适合现在养龙虾的各位。
“OpenViking”到底有多猛?
一句话自动安装,负责给Agent提供稳定、可治理的长期记忆与上下文供给。
有意思的是,OpenViking的核心卖点就是“把上下文从向量黑盒变成可操作的文件系统”。
传统RAG大家都知道:
切chunk→向量嵌入→语义召回→拼凑上下文,检索结果像散装零件,Agent拿到手还得自己拼。
传统 RAG 技术是个“黑盒”,它给你一个答案,但如果找错了,你根本不知道它是翻错了哪本书,很难纠错。
OpenViking直接反其道而行之
为了解决这些痛点,OpenViking 引入了一个非常聪明且接地气的概念:用大家最熟悉的“电脑文件夹”的方式,来管理 AI 的大脑。
它不再把 AI 的数据打碎揉在一起,而是把 AI 需要的 “记忆(聊天历史)”、“资源(参考文档)”和“技能(能用的工具)”,变成了类似我们电脑上的文件夹。
AI 可以在里面像浏览 C盘、D盘 一样,分门别类地存取信息,非常有条理。
所有记忆、资源、技能统一塞进虚拟文件系统,协议叫viking:// 目录结构清晰:resources/、user/、agent/、memories/、skills/ Agent像操作本地文件一样ls、find、grep、tree,想看啥直接定位
它还搞了三层上下文加载(L0/L1/L2)
L0:一句话抽象总结,轻量级常驻 L1:概览信息,按需加载 L2:完整细节,只有真正需要时才拉
这就好比 AI 找资料时,先只看“书名和目录”;如果觉得相关,再去加载“章节摘要”;最后确定有用,才去完整阅读“正文详情”。这种方式能大大减少 AI 读废话的概率,极大地降低了调用 AI 模型的成本。
这样一搞,token消耗直线下降,上下文也更结构化、可追溯。
整个检索轨迹还能可视化!调试的时候直接看路径图,哪一步召回烂了、哪层目录漏了,一目了然。
自动整理,越用越聪明(记忆自我进化)
当你和 AI 聊了很久,记录特别长时,OpenViking 会自动帮你做“记忆瘦身”。
它会自动压缩无关紧要的闲聊,提取出重要的“长期记忆”并归档保存。不需要你手动干预,AI 的脑子会自动保持清晰。
再说说背后团队
OpenViking由字节跳动火山引擎Viking团队发起和维护,这个团队专注非结构化数据+AI原生基础设施,之前在云原生数据湖、向量引擎等领域就有深厚积累。
这一次他们押注的方向很明确:让AI Agent真正能“长期在线、持续进化”。
上下文不再是临时的token填充,而是像操作系统文件系统一样,成为Agent的持久“根目录”。
我个人认为这个非常好,当初龙虾刚火的时候就在想怎么没有类似的东西来管理上下文。Agent太需要了!
项目地址:
https://github.com/volcengine/openviking