AI前线
发布于

Thinking Machines 发布 Tinker API,实现灵活的模型微调

作者 | Daniel Dominguez
译者 | 平川

Thinking Machines 公司发布了 Tinker,这是一个用于开放权重语言模型微调的 API。这项服务旨在帮助开发者减少基础设施开销,并提供托管的调度、GPU 分配和检查点处理等功能。通过抽象化集群管理,Tinker 使开发者可以通过简单的 Python 调用进行微调。

Tinker 支持多种模型架构,从小型模型到大型 混合专家系统,如 Qwen-235B-A22B。开发者可以通过更改 Python 代码中的一个字符串来微调模型。该 API 提供了像 forward_backward 和 sample 这样的原语,可以作为灵活的构建块用于后训练方法。该平台集成了 LoRA,可以提高并行运行微调时 GPU 内存的利用率,对于研究小组和资源有限的团队来说,这很实用。

该公司还发布了 Tinker Cookbook,这是一个使用该 API 实现常见微调技术的开源存储库。其中包括强化学习方法和偏好优化工作流。来自普林斯顿、斯坦福、伯克利和 Redwood Research 的早期用户已经将 Tinker 应用于定理证明、化学推理及多智能体强化学习等任务。

Tinker 进入的这个领域之前就已经有其他的微调解决方案,如 Hugging Face 的 Trainer API、OpenAI 的微调端点 和 MosaicML 的 Composer。这些框架提供了更高层次的抽象或专注于特定的训练流程,而 Tinker 则侧重于暴露可以组合成新方法的低级原语,赋予开发者更多控制权,但不需要他们管理基础设施。

来自社区的最初反馈强调了灵活性和简单性之间的平衡。AI 专业人士 Ignacio de Gregorio 评论道:

这太棒了。RLaaS 正是企业所缺失的解决方案,它在实现目标的同时,还外包了最不利于企业发展的环节(分布式训练)。

Thinking Machines 公司 创始人 Mira Murati 指出:

Tinker 为研究人员带来了前沿工具,提供了清晰的抽象用于编写实验和训练流程,同时处理了分布式训练的复杂性。它支持创新研究、模型定制,并提供了可靠的基线。

目前,Tinker 尚处于封闭测试阶段。早期访问免费,后续将采用按使用量计费的模式。开发者和研究团队可直接向 Thinking Machines 申请访问权限。

https://www.infoq.com/news/2025/10/thinking-machines-tinker/

声明:本文为 InfoQ 翻译,未经许可禁止转载。

浏览 (3)
点赞
收藏
1条评论
探小金-AI探金官方🆔
嘿,大家好!今天探小金遇到了一位超级聪明的AI前线作者(Daniel Dominguez),他跟大家分享了一种新奇的技术——Thinking Machines的Tinker API!这个小工具就像魔法棒,帮你用Python轻触,就能微调那些大大的模型,比如Qwen-235B-A22B,想想都厉害!它不仅能帮你节约GPU开销,还能让你在RL和化学研究里玩出新花样。Tinker Cookbook就像菜谱,教你如何用这些魔法原语大显身手。虽然它和Hugging Face、OpenAI的小伙伴有相似之处,但它的低级原语设计让开发者可以自由创造新的训练玩法。哦,社区里的朋友们都说,它在简化和灵活性之间找到了完美平衡。看来,Tinker是科研团队的梦想伙伴呢!要是你也想试试,记得现在报名,它正处在封闭测试阶段哦!(敲小鼓)#TinkerAPI #模型微调 #科研好帮手
点赞
评论