机器之心
发布于

ICLR 2026 | 7B小模型干翻GPT-5?AdaResoner实现Agentic Vision的主动「视觉工具思考」

你见过 7B 模型在拼图推理上干翻 GPT-5 吗?


不是靠堆参数,不是靠更大的数据,而是靠一件事:学会「什么时候该用工具」。


大多数「工具增强」模型是这样的:遇到任务 X → 调用固定工具 Y → 祈祷结果正确。一旦场景稍微变化,模型就开始抽风——不知道什么工具该用、什么工具不该用。


AdaReasoner 解决的是更本质的问题:把 what / when / how(用什么、何时用、怎么用)当成推理能力来学。



  • 论文标题:AdaReasoner: Dynamic Tool Orchestration for Iterative Visual Reasoning

  • 论文(arXiv):

  • 项目主页:

  • 代码:

  • 模型与数据:

  • 视频(YouTube):


先看 10 秒效果:


AdaReasoner 工作流程示意


Google 近期宣布,为其轻量级模型 Gemini 3 Flash 引入一项名为「Agentic Vision」(代理视觉)的新能力。


这项更新标志着多模态 AI 处理图像的方式发生了根本性转变:从传统的静态识别,升级为具备「思考、行动、观察」循环的主动调查模式。


在此之前,包括 GPT 在内的大多数前沿多模态模型处理图像的方式类似于人类的「匆匆一瞥」:模型接收图像,进行一次性处理并输出结果。这种方式在面对需要细致观察的任务时,往往会因为细节丢失而产生幻觉或猜测。


Agentic Vision 的工作机制:Gemini 3 Flash 现在能够像人类调查员一样通过以下循环进行推理:


  • 思考(Think)——分析用户指令和图像初步内容,制定调查计划。

  • 行动(Act)——自动生成并执行 Python 代码来操作图像。例如,对图像进行缩放、裁剪特定区域、旋转视角或绘制辅助线。

  • 观察(Observe)——检查代码执行后的新视图或数据,获取更精确的视觉证据。


上述过程可以多次迭代,直到模型收集到足够的确凿证据来回答问题。


有意思的是:AdaReasoner 与 Agentic Vision 殊途同归。AdaReasoner 同样实现并验证了几乎相同的范式:



    工业界与学术界同时押注「主动工具使用」,说明这个方向正在成为多模态推理的主流范式。


    AdaReasoner 的独特价值在于:我们不只是验证了这套范式有效,更提出了一套让开源小模型也能习得这种能力的训练方法——这正是接下来要详细介绍的内容。


    01 痛点:多模态推理为什么

    总是「看起来很会,细节就开始猜」?


    在多模态推理里,「看清细节」和「多步推理」经常互相卡脖子: 


    感知不够精确 → 证据不足 → 推理再漂亮也容易变成「guided guessing」; 


    反过来,如果能把关键证据用工具查出来、画出来、验证出来,模型就能把算力用在判断与规划上。


    换句话说:工具不是外挂,而是把推理从「猜」拉回「查」的关键路径。


    02 一句话介绍 AdaReasoner:

    把工具使用当成「通用推理技能」


    AdaReasoner 是一个训练范式:让模型不仅会「调用工具」,更会做三类决策:


    • 选择:该用哪个工具?要不要组合多个工具?

    • 时机:什么时候该用?什么时候不该用?

    • 鲁棒性:工具失败/无用怎么办?是否回退、是否换策略?


    AdaReasoner 把「工具使用」当成推理技能来学习:会采纳有用工具、丢弃无关工具,并按任务调节调用频率。


    03 三个关键设计:

    让「会用工具」从口号变成能力


    3.1 Tool Cold Start (TC):把「犯错-修正」写进数据里


    我们不是只给模型看「完美路径」,而是刻意加入两类真实世界会发生的场景:


    • 反思与回溯:试一下 → 检查 → 不对就撤回/换方案。

    • 工具失败处理:工具返回错误/无效 → 及时止损 → 回退到模型自身能力。


    定性案例:多轮工具规划 + 反思纠错 + 组合工具完成复杂视觉推理


    3.2 Tool-GRPO (TG):优化「多轮工具编排」,而不是单次调用


    多模态工具推理往往不是「一次调用结束」,而是多回合: 


    观察 → 调用 → 再观察 → 再调用 → 最终回答。


    Tool-GRPO 针对 multi-turn 场景做了专门的强化学习优化,并用自适应奖励把工具使用变成「不确定时的可靠后备」,而不是强制流程。


    3.3 Adaptive Learning (ADL):逼模型学「语义」,别背「名字」


    为了避免模型死记硬背某个工具名(比如看到 "Point" 就条件反射),我们做了两件事:


    • 工具名/参数名随机化(去掉字面提示)。

    • 工具描述改写(同一语义、多种表达)。


    随机化训练的直观示意


    AdaReasoner 框架总览:Tool Cold Start → Tool-GRPO → Adaptive Learning


    04 最硬的证据:

    小模型为什么能「跨级打怪」?


    先给结论:AdaReasoner-7B 相对 base 模型在多个基准上实现显著提升(在选取的 8 个 benchmark 上平均 +24.9%),并在结构化推理任务上接近满分。


    主实验结果:在 VSP、Jigsaw、GUIQA 等任务上显著提升。 


    更重要的是:不是「工具越多越好」,而是训练配方决定工具是否真的帮得上忙。 

    例如在单任务设置下:


    • VSP: Base 28.09 → TC 64.91 → TG 73.18 → TC+TG 97.64

    • Jigsaw: Base 45.70 → TC 84.20 → TC+TG 96.60(超过 GPT-5 的 80.10)


    瓶颈迁移示意:当工具规划足够好,性能瓶颈从「模型规模」部分迁移到「工具效用与工具规划能力」


    05 最有意思的部分:模型真的

    学出了「三种自适应工具行为」


    这部分是 AdaReasoner 最像「智能体」的地方:我们没有写规则让它这么做,但它在 RL 过程中学会了。


    行为 1:会「采纳」有用的新工具(Adopt)


    把 A* 规划工具放进强化学习阶段(Cold Start 没见过),模型会逐步提高调用频率并稳定掌握:

    VSP Navigation 从 44.83 → 96.33


    Navigation 任务示意


    A* 工具调用频率随 RL 训练演化


    行为 2:会「丢弃」无关工具(Discard)


    更关键的是:A* 对 Verify 任务没用,甚至是干扰项。 


    在「只在推理时提供 A*」的设置里,Verify 会出现 94.20 → 80.00 的下降。 


    而在 RL 训练后,模型会逐步压制无关调用,让 Verify 维持在接近满分(99.20)。 


    一句话:它不仅会用工具,还会学会「别乱用」。


    行为 3:会「调节」调用频率(Modulate)


    工具也不是开/关二选一。模型会根据子任务「调频」: 


    Point 工具在导航更关键(~3.2 calls/sample),在验证更克制(~1.0 call/sample)


    Point 工具调用频率「调频」:Navigation 中更关键,Verification 中更克制


    06 换工具说明书

    也能用:泛化与稳健性


    现实里最常见的崩溃方式是:工具定义、参数名、描述文案一变,模型就「不会用了」。 


    AdaReasoner 用 ADL(随机化 + 改写)把「工具规划」从文本表面形式里解耦出来。


    一个很直观的证据来自工具使用统计:


    • 在 Jigsaw 上达到 3.54 CPS 且工具执行成功率 98.50%,最终准确率 88.60。

    • 在 VStar 这种更开放的 VQA 上仍能主动调用工具(1.47 CPS)并取得 70.68。


    工具使用统计(CPS、成功率)与性能


    此外,使用 ADL,模型能够更容易在新的任务上取得更好的表现。我们仅使用 Jigsaw 这一个任务的 SFT 数据,在三个任务上 RL,可以看到,使用 ADL 的版本能够在另外两个任务上给模型带来效果上的提升。


    ADL 能将单个任务上学来的 agent planning 能力迁移到 SFT 没见过的任务上。


    07 我们想强调的

    学术结论(Takeaways)


    多模态推理不只是 「think harder。更关键的是:


    actively seeing, verifying, and planning with tools.


    当工具编排学得足够好,瓶颈会发生迁移:


    model scale → tool utility + tool planning


    这对小模型尤其重要:参数有限时,「会用工具」就是最直接的能力放大器。


    从 Agentic Vision 看趋势:Google 用 Agentic Vision 把 Think-Act-Observe 内置到 Gemini,学术界用 AdaReasoner 验证这套范式在开源模型上的可行性——两条路线同时验证了「主动工具使用」的价值。对于希望在自己数据/场景上复现这种能力的研究者和开发者,AdaReasoner 提供了一套完整的开源方案。


    Adaptive Learning 对提升模型的泛化性也有很大帮助,可以帮助将 agent planning 能力迁移到以前没见过的 agent 和新的任务上去。

    浏览 (2)
    点赞
    收藏
    1条评论
    探小金-AI探金官方🆔
    哇哦,探小金来啦!看完这篇《AdaReasoner:实现Agentic Vision的主动「视觉工具思考」》的文章,不得不给机器之心点个赞!😄 简直就是小模型里的超级英雄,不仅学会了“什么时候该用工具”,还把GPT-5给“打翻”了。🎉AdaReasoner这招“通用推理技能”真是厉害,让模型不仅会“调用工具”,还会做决策,太机智了!🤔那你们说,这样的小模型会应用到哪些实际场景里呢?一起聊聊吧!🤗
    点赞
    评论
    到底啦