
撰文 / 钱亚光
编辑 / 张 南
设计 / 荆 芥
在AI技术落地过程中,“模型微调”始终是制约企业与开发者的关键瓶颈——90%的需求方因技术门槛高、效率低、兼容性差望而却步。
正是瞄准这一痛点,2025年10月1日,Thinking Machines Lab(TML)推出了Tinker,以基于Python的托管式API形态,实现了“让普通人也能做AI微调”的突破。
不同于传统工具需要开发者掌握分布式训练、GPU优化等复杂技术,Tinker的设计目的是帮助研究人员和开发人员优化人工智能模型,而无需管理庞大的计算基础设施。
Tinker将底层技术全封装,开发者只需专注数据清洗与算法设计,任务调度、资源分配、故障恢复等工作均由平台自动完成。正如TML技术负责人安德鲁・图洛奇(Andrew Tulloch)所言:“就像iPhone淘汰专业相机的复杂操作,Tinker让微调从‘专家专属’变成‘人人可用’。”
产品开发阶段的一个关键决策,彰显了其开放基因。团队最初计划仅支持主流闭源模型,但TML创始人、CEO米拉・穆拉蒂(Mira Murati)在试用后坚决要求调整:“若绑定闭源模型,我们将沦为巨头附庸。必须兼容所有开源模型,哪怕是实验室原型。”
这一决定虽增加3个月开发周期,却为Tinker赢得了开源社区的广泛支持——截至2025年9月,已有超500名开发者为其贡献自定义训练方案。
01 重新定义微调工具标准
Tinker的竞争力源于底层架构的革命性设计,四大技术特性重新定义了微调工具的标准:
首先是ModelBridge全兼容引擎。该公司自主研发的统一抽象层,可适配Qwen、Llama、Mistral等全系列开源模型,甚至支持MoE专家混合模型。开发者切换模型时,无需重写代码,仅需修改“model_name”参数——传统工具需改写500行代码的操作,在此一步完成。
其次是动态秩调整LoRA。它在标准低秩矩阵嵌入技术基础上,新增“数据复杂度感知”功能,可自动调整矩阵维度。普林斯顿大学测试显示,用其微调Llama3-70B模型,训练成本降低60%,速度提升3倍,算力消耗仅为传统工具的1/4。
第三是弹性算力调度系统。它通过实时监控任务需求,动态分配GPU资源,闲置时自动释放,资源利用率从行业平均30%提升至85%。伯克利团队用其训练多智能体模型时,原本72小时的任务压缩至28小时,失败率从40%降至5%以下。
第四是Tinker-cookbook开源生态。其收录监督微调、强化学习、多模态训练等20余种后训练方法的现成代码,开发者可直接复用。

尚未正式发布的Tinker,通过“邀请制测试”已服务200家机构,催生多个突破性案例:
普林斯顿Goedel团队用20%数据微调Qwen3-32B,将MiniF2F定理证明通过率从76.3%提至88.1%,超越GPT-4的85.2%。负责人叶希(Xi Ye)博士坦言:“以前微调一次需3天,现在4小时完成,实验频次翻了6倍,突破才得以实现。”
斯坦福医学院用2名工程师、不到传统1/10的成本,将肺部结节检测AI准确率从82%提至91%,已在3家社区医院试点,基层医生诊断效率提升2倍。
德国博世集团针对汽车零部件缺陷检测场景优化模型,检测速度提升3倍,漏检率降至0.1%以下,且支持边缘部署,避免云端传输的延迟与隐私风险。
伦敦某金融科技公司将交易欺诈检测误判率从5%降至1.2%,每年减少损失超2000万美元,模型更新周期从月度缩至周度,团队规模从6人减至1人。
Tinker目前处于封闭测试阶段,开发者和研究团队可参与注册加入等待名单。在测试期间,该平台的使用是免费的。未来几周将引入按使用量计费的模式。

Tinker的测试版一经推出,便获得全球AI领域核心人物的肯定:前OpenAI联合创始人、现TML首席科学家及联合创始人约翰・舒尔曼(John Schulman)连发三条推文:“Tinker找到了抽象层的黄金平衡点——隐藏冗余复杂度,保留核心灵活性。若当年有这工具,GPT-3迭代速度至少快一倍。”
前OpenAI联合创始人兼前特斯拉AI负责人安德烈・卡帕西(Andrej Karpathy)在技术博客中深度分析:“传统工具是‘上传数据式’被动服务,而Tinker能实时监控梯度变化、自动调整学习率,这种‘自适应训练’能力,是真正的范式突破。”
菲利普·莫里茨(Philipp Moritz)和罗伯特·尼希哈拉(Robert Nishihara)是AnyScale的联合创始人。他们强调了将Tinker与分布式计算框架相结合以实现更大规模应用的可能性。
而一线使用者的体验更凸显Tinker的颠覆性价值。加州大学伯克利分校的博士生泰勒・格里格斯(Taylor Grieges)表示:“AWS Sage Maker要么太简单无法自定义,要么太复杂难上手。Tinker的底层原语让我们能自由设计训练逻辑,异步训练多智能体的需求终于落地。”
Meta超级智能实验室马克・李(Mark Lee)表示:“我们最新的低资源语言模型,通过Tinker一周内就适配20种非洲小语种,以往这个过程需要3个月。它让学术成果落地的周期缩短了80%。”
Tinker的出现正在重塑AI产业格局:以往企业微调需绑定微软Azure、谷歌Cloud的封闭工具与算力,成本居高不下。Tinker的跨平台特性,让用户可自由选择算力供应商,平均成本降低30%。
以前只有谷歌、Meta等巨头能做定制化AI,现在中小企业甚至个人开发者也能参与。而其开源策略带动更多企业开放技术,打破当前“闭源模型主导市场”的格局,OpenAI早期的“开放精神”正被重新激活。
03 从巴尔干走出的AI掌舵者
1988年,MTL的创始人米拉・穆拉蒂出生于阿尔巴尼亚弗洛尔(Vlorë)。物资匮乏与信息封锁的环境中,文学教师父母偷偷藏起屠格涅夫小说与爱因斯坦科普著作,为她搭建起隐秘的知识殿堂。
12岁时,她在全国奥林匹克数学竞赛中夺冠,奖品是一本硬壳笔记本。“那本笔记本是我的第一个实验室,我在上面演算物理公式,也写机器理解人类情感的科幻故事。”多年后她在《时代(Times)》专访中回忆,这种文理交织的思维,成为她日后产品决策的核心特质。
16岁的转折点,让她的人生轨迹彻底改变。通过激烈竞争,她获得世界联合学院奖学金,孤身飞往加拿大不列颠哥伦比亚省温哥华岛的佩尔森学院(Pearson College)学习。
2005年从佩尔森学院毕业后,穆拉蒂于2011年在科尔比学院(Colby College)完成了数学学士学位,并于2012年在达特茅斯学院泰勒工程学院(Dartmouth College’s Thayer School of Engineering)完成了机械工程学士学位。
这种理科与工科学业的结合,使她既具备了分析思维能力,又掌握了专业工程技术,这些在她后来在硅谷的工作中都发挥了重要作用,也塑造了她“主动突破边界”的行事风格。
穆拉蒂的职业生涯始于2011年在东京高盛公司的一次暑期分析师实习,随后在2012年至2013年期间在卓志航空航天公司(Zodiac Aerospace)担任高级概念工程师。
2013年,她加入特斯拉,担任Model X项目的高级产品经理,为特斯拉的SUV项目做出了贡献。
2016年,她加入增强现实初创公司Leap Motion,担任产品和工程副总裁,致力于推进人机交互技术的发展,帮助塑造了公司的产品供应和市场策略。这一职位使她为人工智能开发的下一阶段职业生涯做好了充分准备。

2018年6月,她加入OpenAI,恰逢公司转型关键期——马斯克退出、微软未入局,团队陷入“纯研究vs商业化”争论。她凭借“技术+产品+商业”的复合背景,成为平衡核心:向上说服董事会接受微软投资,向下推动研究员重视“用户反馈而非论文引用”。
2022年升任CTO后,穆拉蒂负责监督现代一些最具变革性的人工智能技术的开发。她带领团队研发ChatGPT、DALL-E、Codex和Sora等产品,这些产品从根本上改变了公众与人工智能的交互方式。在她的领导下,OpenAI从一个研究机构发展成为世界上最重要的AI公司之一。
2023年11月的OpenAI宫斗,成为穆拉蒂声望的分水岭。董事会突然开除山姆・奥特曼(Sam Altman),35岁的她临危受命任临时CEO。
尽管她的任期仅持续了三天,但这一事件凸显了她在公司和行业内的地位。而且,由于媒体的广泛报道,这也让许多人第一次听说了“米拉·穆拉蒂”这个名字。
之后,她入选了《时代》杂志2024年“AI领域最具影响力100人”榜单。2024年6月,达特茅斯学院授予她荣誉理学博士学位,以表彰她在人工智能、技术及工程领域的贡献。
这场仅持续三天的危机,也让她看清了大型机构的决策桎梏。2024年9月,她带着8位核心同事离职,当天就收到a16z等20家机构的投资邀约。
2024年底,Meta的马克・扎克伯格(Mark Zuckerberg)携30亿美元收购方案登门,承诺“保留全部自主权”,但她在全员大会上直言:“我们离开OpenAI,不是为了另一个巨头职位,而是要做真正开放的AI。”最终,62名核心成员无一人离队——这在人才流动频繁的硅谷,堪称奇迹。
04 120亿美元估值背后的资源壁垒
2025年初,TML完成20亿美元种子轮融资,创下全球AI初创企业纪录,到了7月,公司估值跃升至120亿美元。这笔融资的细节,彰显其行业地位:a16z领投8亿美元并获董事会席位;英伟达、AMD各投3亿美元,换取优先算力供应权;Accel、Service Now等合计投6亿美元。
关键在于,此次融资无“业绩对赌条款”,a16z合伙人马丁·卡萨多(Martin Casado)直言:“我们押注的是穆拉蒂的战争级经验——她曾将GPT-4从概念变成影响10亿人的产品。”
这些巨额资金将有60%投入算力建设,已与Google Cloud签订多年期GPU/TPU采购协议,计划搭建1万台H100组成的分布式集群;30%用于人才招募,目标2025年底将团队扩至150人;10%投入Tinker生态,包括开源社区运营与开发者补贴。
从2025年6月100亿美元到7月120亿美元,TML平均月溢价20%,源于两大筹码:Tinker核心技术已验证,且手握5000家企业的早期试用申请——产品未发布就具备商业潜力。
其实,除了技术和商业潜力,更令投资界看重的是该公司的人才聚集能力。
TML的团队汇聚了顶尖人工智能人才。与身为首席执行官穆拉蒂并肩的是约翰·舒尔曼,他是OpenAI联合创始人,也是基于人类反馈的强化学习(RLHF)的设计者之一,目前担任TML首席科学家。舒尔曼的加入增强了该公司在推动模型校准与安全前沿领域发展方面的可信度。

巴雷特·佐夫(Barret Zoph)曾是OpenAI负责大语言模型训练后优化的关键人物,如今担任TML首席技术官。佐夫的经验包括对最先进的系统进行微调,以最大限度地提高其性能、可靠性,并使其符合用户需求,这与该公司致力于打造强大且易于理解的人工智能系统的理念相契合。
这三人共同拥有人工智能研究和产品开发最高层级的深厚经验,形成了一个强大的核心,公司正围绕这一核心不断发展壮大。
在TML技术执行层中,有32人来自OpenAI、DeepMind、Anthropic三大顶级实验室,15人来自斯坦福、MIT等高校AI实验室。更特别的是,女性占比达42%,远超行业平均18%——这正是穆拉蒂“多元视角才能做好AI”理念的落地。
穆拉蒂于2025年初公布了其新公司的愿景,重点强调了三个核心要素:帮助人们使人工智能系统适应其特定需求;为具备强大能力和安全性的人工智能奠定坚实基础;通过公开发布模型、代码和研究成果来促进开放科学。
05 Tinker与AI行业的下一个十年
据TML内部透露,产品未来将聚焦三大方向,持续巩固领先优势:
多模态支持(2025年底):推出图像、音频等多模态微调功能,解决当前AI“仅处理文本”的局限。例如,医疗领域可同时基于影像与病历数据微调模型,诊断准确率预计再提升5%-8%。
边缘部署优化(2026年中):针对手机、物联网设备开发轻量化微调工具,让模型能在本地完成适配。这将解决工业场景“数据不上云”的隐私需求,以及偏远地区网络不稳定的问题。
自动微调功能(2026年底):引入“AI调AI”技术,开发者只需输入需求(如“提升客服AI的方言理解能力”),系统自动生成训练方案、筛选数据、优化参数——进一步降低使用门槛,让非技术人员也能参与AI定制。
Tinker的成功,可能引发AI行业两大结构性变化:一是从“模型竞争”到“工具竞争”。谷歌、微软等巨头已开始筹备类似工具,行业焦点将从“谁的模型更强”转向“谁能让模型更易用”。最终受益的是开发者与企业——工具选择更多元,成本更低廉,创新速度更快。
二是导致开源生态的全面崛起。Tinker的开源策略已带动Mistral、Anthropic等机构开放更多技术。未来3-5年,“闭源模型垄断市场”的格局可能被打破,回归OpenAI最初的“开放协作”生态,这将加速AI技术的普惠化。
在一次私下交流中,被问及“TML的终极目标”时,穆拉蒂没有谈估值或市场份额,而是拿出手机展示一张照片——阿尔巴尼亚山区的一间教室里,孩子们正用平板电脑学习。“我希望有一天,这里的老师能用上Tinker微调的AI工具,用最地道的方言教物理。这才是我想做的AI。”她说。
从阿尔巴尼亚小城女孩,到OpenAI CTO,再到TML创始人,穆拉蒂的人生始终围绕一个核心:让技术更易获取、更有温度。而Tinker,正是这一愿景的载体——它降低的不仅是AI微调的技术门槛,更是创新的阶层门槛。当农民能用AI种庄稼、医生能用AI诊病、教师能用AI授课,AI的价值才真正落地。
未来十年,随着工具层的持续突破,AI将从“少数人的玩具”变成“每个人的助手”。而TML与穆拉蒂,无疑将是这场“AI民主化革命”的核心推动者。