承认自己开源不行?转型“美国DeepSeek”后,两个谷歌研究员的AI初创公司融到20亿美元,估值暴涨15倍
AI 创业公司 Reflection AI 由两位前 Google DeepMind 研究员在去年创立,仅仅一年时间就完成了最新一轮融资——筹集了 20 亿美元,公司估值达到 80 亿美元,比 7 个月前的 5.45 亿美元估值暴涨了 15 倍。
这家公司最初专注于自主编程智能体,这是一个更为落地的切入点。如今,Reflection AI 正将自己重新定义为一家 OpenAI、Anthropic 等“封闭前沿实验室”的开源替代公司,同时是 “美国版 DeepSeek”。
“我们正在将开放模型的前沿技术带回美国,以在全球范围内构建蓬勃发展的人工智能生态系统。”Reflection AI 创始人兼 CEO Misha Laskin 表示。
本轮投资方阵容豪华,包括:Nvidia、Disruptive、DST、1789、B Capital、Lightspeed、GIC、Eric Yuan(Zoom 创始人)、Eric Schmidt(谷歌前 CEO)、花旗、红杉资本、CRV 等。
从编码智能体起步
Reflection AI 成立于 2024 年 3 月,由曾主导 DeepMind Gemini 项目奖励建模的 Misha Laskin 和 AlphaGo(那个在 2016 年击败围棋世界冠军的 AI 系统)联合创作者 Ioannis Antonoglou 共同创立。
Laskin 在一年前的节目中表示,自己离开 DeepMind 是因为他相信 AGI 很快就会实现,而独立的新公司可以让其更快地前进。他预测,“小型任务的智能体” 会先落地,而 “通用超人类智能体” 大概在 3 年左右出现。
当时,两人同在 Gemini 项目团队,Ioannis 负责 RLHF,Laskin 负责奖励模型训练。当时大家都是在预训练之后,通过微调让大模型适配 “聊天” 场景,比如 ChatGPT、Gemini。他们认为,训练、微调这些模型的方法已经很成熟,核心问题变成了“数据”以及如何在这些模型之上实现 “规划” 和 “搜索”。“独立出来做这件事,能推进得更快。”Laskin 说道。
两人深厚的前沿 AI 系统研发经验正是他们的核心卖点。他们希望证明,即使不依赖科技巨头,顶尖人才也能独立打造最前沿的模型。
在不到 3 个月前,Laskin 在播客中提到,公司的目标是通过 “研发与产品协同设计” 打造超级智能。
今年 7 月,他们推出了面向工程团队的代码理解智能体 Asimov,并声称“Asimov 已经是代码理解领域中最好的智能体。在与一些大型开源软件项目维护人员进行的盲测中,Asimov 的答案在大多数情况下比 Cursor Ask 和 Claude Code(Sonnet 3.7 和 4)更受欢迎。”之后,这家初创公司几乎没什么产品正式发布。
之所以选择从编程领域起步,是因为他们认为,训练一个能通过代码与软件交互的语言模型,相当于给 AI 装上了 “手脚”,未来语言模型与 Salesforce、CRM 工具等各类软件的交互,大部分都会通过 API、函数调用(也就是代码)实现,这不只是工程师能用。其次,编码对语言模型来说是 “天然优势领域”。如果能为企业打造一个解决编码问题的 “智能顾问”,就相当于掌握了打造超级智能所需的所有核心能力,后续可以很容易地扩展到其他领域。
Laskin 表示,Asimov 只是第一步,之后会把 “企业级超级智能” 扩展到编码之外的领域,比如产品、营销、HR 的 “团队记忆” 和知识管理。
在宣布本轮融资的同时,Reflection AI 表示已从 DeepMind 和 OpenAI 挖来一支顶级团队,他们曾主导或参与了 PaLM、Gemini、AlphaGo、AlphaCode、AlphaProof 的研发,也为 ChatGPT、Character AI 等项目做出贡献。
Laskin 曾表示,团队核心成员之前在大实验室都能拿高薪,但很多人进入 AI 领域,本质是想做突破性工作。但大实验室的黄金时期其实是早期,比如 DeepMind 做 Deep Networks、OpenAI 做 GPT-1 到 GPT-3 的时候,而现在的初创公司反而有机会成为下一个前沿实验室。
“对这些人来说,钱不是首要问题——我们给的股权足够让他们看到长期价值,更重要的是参与感:他们能主导核心方向,而不是在大公司里只负责一小块业务。而且现在有能力冲击前沿实验室的初创公司很少,我们反而成了稀缺选项,毕竟谁不想参与下一个 AI 突破项目呢?”
Reflection AI 还表示搭建了一套先进的 AI 训练系统,公司承诺将对外开放。更重要的是,Reflection AI 声称已经“找到了与开放智能战略相契合的可规模化商业模式”。
据 Laskin 介绍,Reflection AI 目前团队规模约 60 人,成员主要包括 AI 研究员和工程师,涉及基础设施、数据训练和算法开发等领域。公司已经获得算力集群,计划在明年推出一个使用 “数十万亿 tokens” 训练的前沿语言模型。
“我们打造出了过去被认为只有顶级实验室才能实现的系统——一个能在前沿规模上训练大规模专家混合(MoE)模型的 LLM 与强化学习平台。”Laskin 说道。
Reflection AI 在 X 上发文称:“我们亲眼见证了这种方法在自主编程领域的成效。现在,我们要把这些方法扩展到通用智能体推理领域。”
开始主打“开源”牌
MoE 是一种支撑前沿大模型的架构——此前只有大型、封闭的 AI 实验室才有能力进行此类规模的训练。中国的 DeepSeek 在开源大规模 MoE 训练上取得突破,随后 Qwen、Kimi 等模型也相继崛起。
此外,一个月前彭博社还曝出,DeepSeek 正在开发具有更强大 AI Agent 能力的新模型,仅需少量提示就能帮用户执行复杂操作,并且还能根据历史操作自我进化和学习,该模型预计在今年年底推出。
Laskin 表示:“DeepSeek、Qwen 等模型对我们来说是一次警醒——如果我们什么都不做,那么全球智能标准将由别人制定,而不是由美国制定。”
Reflection 表示, AI 能够走到今天,正是依靠一系列被公开分享的关键理念,比如自注意力机制、下一词预测、强化学习等。AI 正在成为一切技术的基础层,支撑科研加速、教育提升、能源优化、医学诊断增强、供应链运转等。
“但问题在于,最前沿的技术目前仍集中在封闭实验室中。如果这种趋势持续下去,极少数机构将掌握构建 AI 所需的资本、算力和人才,形成一种‘滚雪球式’的垄断,排除掉所有其他参与者。”“我们需要打造足够强大的开放模型,让它们成为全球用户与开发者的首选,以此确保智能底座保持开放、可访问,而不是被少数人控制。”
在美国科技圈,Reflection AI 的新使命受到了普遍欢迎。
白宫 AI 与加密事务专员 David Sacks 在 X 上发文称:“很高兴看到更多美国开源 AI 模型的出现。全球市场上相当一部分用户更看重开源带来的成本、可定制性和控制力。我们希望美国在这一领域也能领先。”
Hugging Face 联合创始人兼 CEO Clem Delangue 表示:“这对美国开源 AI 来说确实是个好消息。” 但他也补充说:“接下来最大的挑战,是要展示出在开放模型与数据集上的高频共享速度,就像当前那些主导开源 AI 的实验室一样。”
开放模型权重,不公开训练数据等
据悉,Reflection AI 对“开放”的定义,更接近开放访问而非完全开源,类似于 Meta(Llama)或 Mistral 的策略。
Laskin 表示,公司会开放模型权重,即 AI 的核心参数,供公众使用,但训练数据和完整训练流程不会公开。“实际上,最有影响力的就是模型权重,因为任何人都可以基于它进行实验。至于完整的基础设施栈,只有极少数公司真正有能力使用。”
这种平衡也支撑着 Reflection AI 的商业模式。Laskin 表示,研究者可以免费使用模型,但公司的主要收入将来自大型企业在其模型上构建产品,以及各国政府建设主权 AI(Sovereign AI)系统的项目。
“对于大型企业来说,开放模型是默认选择。你希望对模型有完全的控制权——能在自己的基础设施上运行、控制成本、为不同工作负载做定制优化。毕竟,AI 成本极高,你当然希望尽可能优化它。这就是我们瞄准的市场。”Laskin 说道。
Reflection AI 尚未发布首个模型。Laskin 透露,该模型将以文本为主,未来会具备多模态能力。公司计划将这轮融资投入到算力资源中,目标是在明年年初发布第一款前沿模型。
对于资金问题,Laskin 也在之前的博客中提到,“资金很重要,但我们能比大实验室更高效。比如大型实验室需要 100 单位资金,我们聚焦核心方向的话 10 单位就够了,差了一个数量级。”
他坦言,资金需求主要看 “什么时候需要扩 GPU”——AI 公司的主要成本就是 GPU 支出,其次才是人力和数据。“所以,我们融资的规模,会和 进入下一阶段扩张的节奏匹配。我们不用像大实验室那样铺大摊子,效率更高。”
参考链接:
https://reflection.ai/blog/frontier-open-intelligence/
https://techcrunch.com/2025/10/09/reflection-raises-2b-to-be-americas-open-frontier-ai-lab-challenging-deepseek/
本文来自微信公众号“AI前线”,作者:褚杏娟,36氪经授权发布。