开放权重语言模型
搜索文档
Thinking Machines 发布 Tinker API,实现灵活的模型微调
AI前线· 2025-10-13 13:54
Tinker产品发布与技术特点 - Thinking Machines公司发布用于开放权重语言模型微调的API Tinker 旨在帮助开发者减少基础设施开销并提供托管调度 GPU分配和检查点处理等功能[2] - 该服务通过抽象化集群管理使开发者可通过简单Python调用进行微调 支持从小型模型到大型混合专家系统如Qwen-235B-A22B等多种模型架构[2] - 平台集成LoRA技术 可提高并行运行微调时GPU内存利用率 对研究小组和资源有限团队很实用[2] 产品功能与竞争优势 - Tinker API提供forward_backward和sample等原语 可作为灵活构建块用于后训练方法 开发者仅需更改Python代码中字符串即可微调模型[2] - 与Hugging Face Trainer API OpenAI微调端点和MosaicML Composer等现有方案相比 Tinker侧重暴露可组合成新方法的低级原语 赋予开发者更多控制权但无需管理基础设施[3] - 公司同时发布Tinker Cookbook开源存储库 包含使用该API实现常见微调技术的示例 如强化学习方法和偏好优化工作流[3] 市场反馈与应用案例 - 早期用户包括普林斯顿 斯坦福 伯克利和Redwood Research等机构 已将Tinker应用于定理证明 化学推理及多智能体强化学习等任务[3] - AI专业人士Ignacio de Gregorio评价该方案实现目标的同时外包了最不利于企业发展的分布式训练环节[4] - 创始人Mira Murati指出Tinker为研究人员提供清晰抽象用于编写实验和训练流程 同时处理分布式训练复杂性 支持创新研究和模型定制[5] 商业化进展 - Tinker目前处于封闭测试阶段 早期访问免费 后续将采用按使用量计费模式[5] - 开发者和研究团队可直接向Thinking Machines公司申请访问权限[5]