从 OpenAI 到思维机器实验室:”ChatGPT 之母” 米拉・穆拉蒂的 AI 创业新征程

当米拉・穆拉蒂在社交平台 X 上发布那张实验室工作台照片时,AI 行业的目光再次聚焦于这位曾主导 ChatGPT 研发的技术领袖。2025 年 2 月 19 日,OpenAI 前首席技术官正式宣布成立 Thinking Machines Lab(思维机器实验室),这支由 29 人组成的团队中超过 20 位成员来自 OpenAI 核心研发体系,形成一场罕见的 “人才核聚变”。在伊尔亚・苏茨克维等前同事相继创业的背景下,穆拉蒂的动向不仅标志着 AI 领域的人才流动进入新阶段,更预示着 “人类 – AI 协作” 技术路线的独立探索正式拉开帷幕。

技术领袖的成长轨迹与战略转向

1988 年出生于阿尔巴尼亚的米拉・穆拉蒂,其职业路径本身就是一部跨领域创新史。16 岁移居加拿大后,这位机械工程专业的毕业生曾在高盛接触金融建模,在卓达航天参与航天器设计,甚至在特斯拉主导过 Autopilot 辅助驾驶系统的开发。2018 年加入 OpenAI 时,她或许未曾想到自己会在五年后被业界称作 “ChatGPT 之母”—— 从 DALL-E 的图像生成到 GPT-4 的多模态突破,穆拉蒂主导的项目始终站在 AI 技术商业化的最前沿。

2023 年那场震惊行业的 OpenAI 权力动荡中,穆拉蒂以临时 CEO 身份推动山姆・奥特曼复职的举动,展现了其罕见的技术领导力与政治智慧。但更深层的转变发生在技术认知层面 —— 在主导 GPT-4 研发过程中,她敏锐察觉到现有 AI 架构在 “人类意图理解” 方面的局限性。”我们创造了越来越强大的模型,但用户仍需花费大量精力适应机器的思维方式。” 穆拉蒂在离职前的内部备忘录中写道,这种认知最终催生了 Thinking Machines Lab 的核心理念:让 AI 系统主动适应人类工作流程,而非反之。

新公司官网首页那句 “重新定义人机协作的语法”,揭示了穆拉蒂与 OpenAI 的战略分野。当原东家仍在追求通用智能的参数竞赛时,思维机器实验室将研发重心放在三个方向:可定制化 AI 模块、理性化基础架构与开放科学生态。这种选择既源于她在特斯拉时期对工程实用性的理解,也暗含着对 AI 伦理风险的前瞻性思考。

梦之队的技术基因与架构创新

Thinking Machines Lab 的 29 人团队堪称 AI 界的 “复仇者联盟”。首席科学家约翰・舒尔曼作为 OpenAI 联合创始人,曾主导强化学习算法 Proximal Policy Optimization(PPO)的开发,其研究为 AI 在游戏、机器人控制等领域的突破奠定基础;首席技术官巴雷特・佐夫曾负责 AutoML 项目,其提出的神经网络架构搜索算法将模型设计效率提升数个量级;安全研究副总裁莉莉安・翁则是 AI 对齐(Alignment)领域的权威学者,她关于价值一致性的研究被视为解决超级智能风险的关键路径。

这支团队带来的不仅是技术积累,更是研发范式的革新。穆拉蒂在采访中透露,新公司将采用 “问题驱动型” 研发模式 —— 先深入调研医疗、法律、制造业等领域的具体需求,再逆向设计 AI 解决方案。这种与 OpenAI”先造模型再找场景” 截然不同的路径,在其披露的早期研究方向中可见一斑:

  • 可解释性编程助手:针对软件开发场景,构建能实时解释决策逻辑的 AI 工具,解决现有代码生成模型 “黑箱” 问题
  • 医疗意图理解系统:分析电子病历中的非结构化数据,将医生模糊的治疗思路转化为精准的 AI 指令
  • 动态任务分配引擎:根据团队成员的知识图谱与 AI 工具的能力边界,自动优化人机协作流程

最具突破性的是其 “理性化基础架构” 构想。传统 AI 模型依赖海量数据训练,而思维机器实验室正在开发的新型架构,试图通过引入形式化验证(Formal Verification)技术,让 AI 系统在处理关键任务时能像数学家一样进行逻辑推导。这种被内部称为 “可证伪 AI” 的技术,已在金融风控原型系统中展现出降低 42% 误判率的潜力。

开放科学运动与行业生态重构

在硅谷科技巨头普遍将核心技术作为商业机密的背景下,穆拉蒂宣布的 “开放科学” 战略显得尤为激进。思维机器实验室计划每月发布技术博客,每季度公开研究论文,并将非核心算法开源 —— 这种透明度在 AI 创业公司中实属罕见。”我们相信,只有通过社区协作才能真正解决 AI 对齐这样的全球性挑战。” 莉莉安・翁在接受《自然》杂志采访时表示,公司已与伯克利、斯坦福等高校建立联合实验室,共享部分训练数据与模型参数。

这种开放姿态背后是深思熟虑的生态策略。当 OpenAI 通过 GPT-4 API 构建封闭生态时,思维机器实验室选择成为 “AI 协作基础设施提供商”—— 其开发的工具包将兼容主流大模型,允许企业在不更换现有 AI 系统的前提下,接入其人机协作模块。某投行分析师测算,若这种 “插件式” 解决方案能占据企业 AI 支出的 15%,五年内市场规模将突破 200 亿美元。

资本市场对这支明星团队的估值已反映出这种期待。据《华尔街日报》独家消息,穆拉蒂正在与 TPG Growth、老虎环球等机构洽谈 10 亿美元 B 轮融资,而公司成立仅三个月时的 A 轮估值就已达 30 亿美元。这种热度与伊尔亚・苏茨克维的 Safe Superintelligence 形成呼应 —— 后者在 2024 年以 10 亿美元融资创下 AI 创业公司最快融资纪录,如今估值已超 300 亿美元。OpenAI 前高管的集体出走,正在形成一个估值超千亿美元的 “叛将生态圈”。

人才裂变背后的 AI 路线之争

OpenAI 核心团队的持续分流,本质上是 AI 发展路径的理念冲突。穆拉蒂在离职信中隐晦提及的 “技术民主化” 愿景,与 OpenAI 逐渐倾向的 “集中式超级智能” 路线形成鲜明对比。这种分歧在 2023 年董事会动荡中已见端倪 —— 当时部分董事担忧过度追求通用智能可能引发伦理风险,而穆拉蒂的临时掌权被视为温和派的短暂胜利。

如今,这场路线之争已演变为产业格局的重塑。当伊尔亚专注于 “安全的超级智能”,达里奥・阿莫迪探索垂直领域大模型时,穆拉蒂的人机协作路线填补了 AI 应用落地的关键缺口。Gartner 最新报告指出,2025 年企业 AI 预算中 “人机协同优化” 类目支出同比增长 217%,而思维机器实验室的技术布局恰好踩中这一爆发点。

对 OpenAI 而言,人才流失带来的不仅是技术竞争,更是生态话语权的稀释。其前员工创立的公司已形成微妙的合作网络:Safe Superintelligence 提供底层安全技术,Cohere 专注自然语言处理,而思维机器实验室则主攻应用层协作 —— 这种分布式创新体系,正在挑战 OpenAI 试图构建的大一统生态。某业内观察家比喻:”OpenAI 像罗马帝国,而叛将们正在建立各自的城邦共和国。”

人机协作的未来图景与伦理思考

思维机器实验室官网展示的概念视频中,一位建筑师对着 AI 助手描述设计灵感,系统不仅能即时生成三维模型,还能指出结构工程上的潜在问题;医生在诊断时,AI 实时调取患者基因组数据并匹配最新临床研究 —— 这种 “增强智能”(Augmented Intelligence)而非 “替代智能” 的愿景,或许代表着 AI 更可行的发展方向。

但技术乐观主义背后仍需警惕潜在风险。当 AI 系统开始理解人类的模糊意图,如何确保其不会过度解读或误判?穆拉蒂团队给出的解决方案是 “三层防御机制”:

  1. 意图校准层:通过持续对话澄清用户需求,类似人类协作中的 “确认环节”
  2. 价值对齐层:引入伦理委员会审核关键领域的 AI 决策逻辑
  3. 紧急制动层:在医疗、金融等场景设置人工否决权的物理开关

这种设计体现了穆拉蒂对技术伦理的深刻理解 —— 在特斯拉工作期间,她曾主导 Autopilot 的安全冗余系统开发,这种工程思维如今被迁移到 AI 领域。”我们不是要创造比人类更聪明的机器,而是要打造更懂人类的工具。” 她在 TED 演讲中强调,这种理念或许能为陷入 “参数竞赛” 的 AI 行业提供新的发展坐标。

当米拉・穆拉蒂在蒙特利尔的新实验室里调试第一版人机协作原型时,硅谷的科技巨头们正忙于应对欧盟的反垄断调查与特朗普的关税威胁。在这个技术变革与地缘政治交织的时代,思维机器实验室的诞生不仅是一位技术领袖的创业选择,更是 AI 发展路径的重要实验 —— 当通用智能的星辰大海仍在远方,脚踏实地构建更人性化的 AI 协作体系,或许是当下最务实的创新方向。这场由 “ChatGPT 之母” 引领的技术突围,终将在 AI 发展史上留下浓墨重彩的一笔。

为您推荐