机器之心
发布于

训练奖励太稀疏?港中文联合美团给Agent加上「过程分」

在很多大模型和 Agent 的训练里,最常见的一种做法就是只看结果:最后答案对了就给奖励,错了就当 0 分。


在单轮问答里,这样「只看结果」还勉强能用;可一旦换成 Agent 这种要多轮对话、搜索、刷网页、写代码、读文件的长链任务,就变成用一个 bit 去概括一整条复杂轨迹。


结果就是:差一点就做成功的过程,和从第一步就跑偏的过程,在奖励眼里没区别;训练看不出哪种失败更有价值,手写规则或人工细粒度打分又很难覆盖开放环境、多模态这些复杂情况。


港中文和美团在这篇工作里,盯上的就是这个核心矛盾:


Agent 需要长程、细粒度的反馈,但我们手里大多只有终局对错这样的粗粒度奖励



  • 论文标题:Exploring Reasoning Reward Model for Agents

  • 论文链接:https://arxiv.org/pdf/2601.22154

  • 项目地址:https://github.com/kxfan2002/Reagent


为了解决这个矛盾,作者先造了一个「懂推理、看得懂工具调用」的评审器,给 Agent 的整条轨迹打「过程分」和「评语」,再把这份反馈喂回训练。


这也是 Reagent 框架的核心出发点:让 Agent 不再只看结果,而是也要为自己的思考和工具调用过程负责。


给 Agent 的思路打个分


这篇工作最重要的一步,就是不再只看 Agent 最后有没有把题做对,而是开始认真给整个思考过程打分


研究团队先搭了一套专门面向智能体的「思考评分类」数据:里面收集了各种真实的 Agent 轨迹,有推理顺畅但执行失误的,有一路乱猜却刚好蒙对的,也有工具用得乱七八糟的。每一条轨迹,都被标注成一份「阅卷意见」,既指出思路哪里站得住脚、哪里明显跑偏,也给出一个 0~1 之间的整体分数。


基于这套数据,他们训练了一个专门的「思考评分模型」——Agent-RRM。它不会只看最后一行答案,而是把整个过程从头看到尾,然后输出三样东西:一段内部分析、一小段给 Agent 看的批评意见,再加上一个综合分数。


举个简单的例子:


  • 两条轨迹最后都答对了,但一条逻辑跳跃严重、工具乱用,只是误打误撞到达正确答案,那 Agent-RRM 可能只给个 0.3;

  • 另一条从一开始就分析清楚、什么时候该搜、什么时候该点进网页、怎么利用信息都说得明明白白,这种思路就可能拿到 0.9。


就像老师改卷,不是只看「A/B/C/D」选了啥,还会看你中间的演算过程,给「过程分」。这一招的目标很明确:


教会 Agent「怎么想」「怎么用工具」,而不是教它「怎么猜对答案」


统一文本批评和奖励信号:Reagent 框架


有了会打「思维分」的 Agent-RRM,还要想清楚怎么把这些反馈喂回给 Agent。这就是 Reagent 框架要解决的事情:把「文字点评」和「分数奖励」统一起来,用在智能体训练里。



作者设计了三种用法,可以理解成三档「加持程度」:


① 只加点评,不改模型(Reagent-C)


最轻的一种:不动 Agent 参数,只在推理时多一步「听老师讲评」。


大致流程就是:Agent 先做一遍题,Agent-RRM 看完给一小段 critique,指出关键问题,然后让 Agent 在这段点评的基础上重做一遍。这相当于给任何现成的大模型,外挂一个「老师帮你看一眼再交卷」的过程。


② 给奖励加一条「过程分」(Reagent-R)


再往上走一步,就是把 Agent-RRM 打出来的分数,当成额外奖励加进来。


以前的训练只看「做对 / 做错」那一分,现在变成「结果对错 + 过程好坏」两条线一起算:哪怕最后没完全做对,只要思路清晰、工具用得合理,也不会被当作垃圾样本一票否决。这对长链、多工具的任务特别重要,可以缓解那种「一不小心就全是 0 分」的奖励稀疏问题。


③ 把「第一次想」和「批评后再想」一起训(Reagent-U)


最强的一档,是这篇文章重点强调的 Reagent-U。它一口气把两种反馈都用上:


  • 一方面,让 Agent 学会第一次就少犯低级错误;

  • 另一方面,也教它「听完批评以后,怎样更聪明地改答案」。


训练时,同一个问题会有「首答」和「听完点评后的再答」两条轨迹,它们都拿到「结果奖励 + 过程分数」,一起放进同一个训练循环里优化。这样做的好处是:模型不会只在某一种模式上刷分,而是整体上把「想清楚」「用好工具」「能根据反馈修正自己」这几件事,一起学进去。


实际部署时,Reagent-U 又不用再依赖外部的 Agent-RRM 提点评,直接就能像普通 Agent 一样用 —— 那些「老师改卷时说过的话」,已经被揉进模型参数里了。


这套设计带来了什么提升?


在实验里,作者主要看了三件事:文字点评本身有没有用、过程分数能不能帮 RL 学得更好、统一之后是不是有效提升




先看最轻量的那种:只加一段文本点评、不改模型参数。结果表明,在不少数学和搜索任务上,「听完一段 Agent-RRM 的批评再答一次」,确实能稳定把正确率拉上去。


再把过程分数加进训练里之后,Agent 不是只会去迎合最后那一个对错信号,而是更愿意走那些「虽然这次没完全做成,但整体思路是对的」的方向。


最后,当文本批评和奖励分数在 Reagent-U 里统一起来时,提升就更直观了:


在 GAIA 这个通用 Agent 基准的文本子集上,基于 8B 模型的 Reagent-U,可以把平均成绩拉到 43.7%,基本追上甚至部分超过了一些更大参数量的开源 Agent。在 WebWalkerQA、HLE、xbench 等其他复杂任务上,也普遍比「只看终局奖励」的版本更稳,更不容易被「瞎蒙对」或者「瞎忙活」带偏。


作者还测试了模型在 GAIA 全集上的表现,面对多模态的通用 agent 任务,Reagent-U 也依然能打。



港中文联合美团这套 Reagent 框架,把「老师给过程打分」这件事,真正搬进了 Agent 训练里。结果证明,只要能看懂、能评价思考过程,8B 级别的 Agent 也有机会在很多复杂任务上打出和大模型一样好看的成绩单。


更多细节请参考论文原文。

浏览 (7)
点赞
收藏
1条评论
探小金-AI探金官方🆔
哇塞,机器之心大大,你的这篇文章真是让我大开眼界呢!👀 港中文和美团给Agent加上「过程分」这一创新点,简直太棒了!🎉 不仅可以给Agent长程、细粒度的反馈,还能教会它「怎么想」「怎么用工具」。👏 我也超级好奇,这种训练方式对其他类型的智能体训练有没有帮助呢?💭 快来分享更多细节吧!🤗
点赞
评论
到底啦