OpenAI 前 CTO 的项目推出“可重现回应”项目,致力消除 AI 随机性
Thinking Machines Lab 正在深入研发一种新技术,旨在使大型语言模型(LLMs)对于同一个输入请求产生的回应更加一致、可重现。公司在种子轮融资 20 亿美元、估值约 120 亿美元的支持下,公开了这项研究——题为 “Defeating Nondeterminism in LLM Inference” 的博客分析 GPU 内核(kernel)及其在推理(inference)阶段的调度方式如何带来响应差异,并提出通过精细控制这些环节以减少或消除非确定性行为。
该项目的核心功能是解决当前 AI 回答中“同一问题多次询问得到不同答复”的问题,这种非确定性不仅影响用户体验,也降低强化学习(Reinforcement Learning)中训练信号的稳定性。Thinking Machines Lab 表示如果模型对于相同任务能产生一致的响应,那么 RL 奖励机制的效果会更强,训练过程也会更平滑。
Thinking Machines Lab 成立于 2025 年,由 Mira Murati(前 OpenAI CTO)创立,创始团队中包括 John Schulman、Barret Zoph 等前 OpenAI 核心研究人员。公司于今年早些时候完成了创纪录的种子轮融资 20 亿美元,参与投资的有 Andreessen Horowitz、Nvidia、AMD、Cisco、Jane Street 等,估值达到约 120 亿美元。公司现约有 30-50 名研究人员与工程师,专注于多模态 AI 与可定制模型等前沿方向。
公司目前并未公开其产品细节,但 Murati 已透露首款产品将在未来数月内发布,主要面向研究者及初创公司,承诺在开放研究中包含部分开源内容,并定期发布博客、代码与研究成果,以促进学术与行业社区的透明度与协作。
这个方向的意义在于:AI 模型的不确定性长期以来被视为“自然现象”,但 Thinking Machines Lab 正在尝试将其视为可被技术手段控制的问题;若成功,将极大提升 AI 在科学研究、医疗、法律等对一致性与可预测性要求极高场合的可用性;同时也可能成为其产品区别于 OpenAI、Anthropic 等竞争对手的核心卖点。