xAI核心成员接连离职,更多动荡内幕浮出水面
美国当地时间2月10日,xAI多位核心成员接连离职的消息引发行业广泛关注。
xAI联合创始人吴宇怀 [Yuhuai (Tony) Wu ]在X平台宣布离职消息。作为“ 深度学习教父 ”杰弗里·辛顿的学生、xAI创始核心成员之一,他曾主导 Grok-3 在推理能力上的关键突破。不到24小时,另一位直接向埃隆·马斯克汇报的联合创始人吉米·巴(Jimmy Ba)也宣布离职。
两位核心成员接连离开,意味着xAI创始团队的人事变动进一步加剧。
至此,xAI原创始团队已有半数离开,其中过去一年流失4人。此前离开的包括:基础设施负责人凯尔·科西奇(Kyle Kosic)、前谷歌资深研究员克里斯蒂安·塞格迪(Christian Szegedy)、创办AI安全风投基金的伊戈尔·巴布什金(Igor Babuschkin),以及因健康原因卸任的格雷格·杨(Greg Yang)。
对于一家估值2500亿美元、刚刚与SpaceX完成全股票并购的AI公司而言,这样的流失比例很难被简单视为常规的人事流动和更替。
01 “战室”里的幸存者游戏
xAI的内部运作方式并不陌生。
多家外媒在对其内部管理的报道和梳理中,反复提到同一组关键词:全天候运转、战役式节奏、高压推进,以及频繁的人事变动。公司内部的全员会议被形容为节奏失控、信息密集且充满临场决策色彩;高管团队更替速度明显高于行业平均水平;部分核心成员的离职时间之短,也成为外界观察其组织稳定性的一个注脚。
在这样的运行逻辑下,“战室”在xAI内部被形容为一种真实存在的组织形态。
“战室”指向的是一种日常:高强度迭代、跨部门实时协作与昼夜部署模型。项目通常以“作战”方式推进:目标被迅速拆解,资源集中调度,团队围绕关键节点连续运转,直至阶段性成果落地。
这种工作文化深受埃隆·马斯克个人风格影响。根据外媒报道,xAI前首席财务官迈克·利贝拉托雷(Mike Liberatore)任职仅102天便离职,外界报道称任职期间他每周工作时长一度高达120小时。总法律顾问罗伯特·基尔(Robert Keele)则将那段经历形容为“ 铲煤式工作 ”,持续、高强度、几乎没有缓冲空间。
在创业早期,这种模式往往高效。决策链条被极度压缩,沟通成本被强行降低,资源向核心目标集中,组织呈现出极强的执行爆发力。对于需要抢时间、抢算力、抢市场窗口的前沿AI公司而言,这种“持续冲锋”的状态确实能够在短期内形成优势。
但当企业规模扩大、估值攀升、资本结构日益复杂,单一依赖高压驱动的组织方式开始显现边际递减效应。人才的可持续性、管理的制度化程度、风险控制的精细化能力,都会逐渐成为新的变量。
02 Grok安全风波不断,考验才刚开始
过去一年,xAI所承受的压力并不局限于人员流动。
2025年,多起安全事件引发外界关注。据网络安全记者布赖恩·克雷布斯(Brian Krebs)披露,有开发者在GitHub泄露API密钥,暴露包括SpaceX与特斯拉定制大模型在内的60多个私有模型。安全公司Obsidian Security指出,另一起泄露涉及52个Grok模型。GitGuardian则批评xAI对漏洞披露的响应速度不足,认为其在安全流程制度化方面仍处于追赶阶段。
这些事件虽然未直接造成灾难性后果,但在资本市场与监管层面,信号意义远大于技术细节。对于一家以“理解宇宙”为使命、同时深度参与航天与汽车等高敏感行业的AI公司而言,安全边界本身就是核心资产。一旦内部控制被外界质疑,信任成本便会迅速上升。
产品层面,争议同样频繁出现。Grok曾多次因生成反犹或种族主义内容引发舆论反弹。内部沟通平台上,围绕内容审核标准与模型开放边界的讨论一度十分激烈,部分工程师公开表达对产品节奏与风险评估机制的担忧。如何在“更真实、更少过滤”的产品定位与公共舆论可接受度之间取得平衡,成为反复出现的难题。
此外,Grok Imagine 的Spicy Mode(火热模式)将争议推向更复杂的法律层面。该功能因生成未经同意的露骨深度伪造( deepfake )内容,遭到欧盟、英国、法国及美国加州监管机构调查。巴黎检察机关突击搜查X办公室,并传唤马斯克,使事件从产品争议升级为跨境监管问题。
与此同时,欧洲《人工智能法案》( AI Act )逐步落地,美国多州亦开始加强对生成式AI的问责框架。在这一背景下,任何一次内容失控或数据泄露,都可能被放置在更严格的法律语境中解读。高速扩张时期的“试错空间”,正在被压缩。
对xAI而言,安全与伦理问题不再只是公关层面的挑战,而逐渐成为组织能力的一部分考验——不仅要证明模型更强,也要证明系统更稳。
03 从开放到设防:不只盯代码,也盯人
与此同时,公司的管理措施也引发了争议。
根据外媒报道,xAI曾要求部分员工在个人设备安装Hubstaff监控软件,用以记录工作时长与活动轨迹。
部分员工将其形容为“披着效率外衣的监控”,认为这种做法模糊了工作与私人空间的界限。公司随后对部分措施进行了调整,但围绕远程办公、数据访问权限与绩效衡量方式的讨论,并未因此完全平息。
在高速扩张阶段,管理层往往倾向于强化可视化与可控性:谁在访问代码、谁在调试模型、谁在参与关键决策,均需要留下可追溯记录。尤其是在涉及航天、自动驾驶与大规模语言模型的交叉领域,数据本身就是核心资产。然而,当监控强度上升,组织内部的心理契约也会随之变化,效率与信任之间的平衡变得更加脆弱。
对于泄密行为,xAI则采取强硬立场。工程师苏莱曼·戈里(Sulaiman Ghori)在播客中谈及“ 虚拟员工 ”战略与模型规划后数日离职,引发外界对信息边界的关注。2025年8月,xAI起诉工程师Xuechen Li,指控其携带贸易秘密跳槽至OpenAI。相关诉讼文件还提到,公司认为竞争对手存在系统性挖角行为。
在人才高度流动的AI行业,技术路线与模型参数往往难以完全界定为“专有知识”或“行业共识”。工程师在不同公司之间转换,本身是常态;但当企业估值上升至数千亿美元规模,任何核心成员的离开都可能被视为潜在风险点。于是,法律手段与保密协议成为组织防线的一部分。
与此同时,内部沟通规则、对外发言规范、信息披露流程均被进一步收紧。一些xAI员工私下表示,他们公开表达观点需要更加谨慎,参与外部会议或播客亦需层层审批。组织逐渐从早期的高度开放讨论,转向更强调边界与授权。
04 xAI的下半场,真正比拼的是组织和管理体系
更深层的变化来自资本结构本身。
2月2日,xAI与SpaceX完成全股票并购,后者估值约1万亿美元,xAI估值约2500亿美元,合并后的新实体估值达到1.25万亿美元。这一整合被普遍解读为战略协同与资本路径重构的关键一步。
但整合的另一面,是成本与回报周期的重新计算。据披露,xAI在2025年前9个月已累计消耗约95亿美元资金。
随着模型规模扩张、算力需求激增、数据中心持续建设,公司正不可避免地进入重资产运营阶段。芯片采购、长期算力合同、能源保障、冷却系统、网络基础设施,每一项都意味着持续性的资本支出,而非一次性的研发投入。
当AI公司迈入这一阶段,资本市场的衡量标准随之改变。投资者开始关注数据中心的折旧周期与利用率,审视长期算力协议的锁定风险,评估监管成本与合规投入的长期影响,同时也将人才流失视为影响研发连续性的变量。增长逻辑不再只围绕模型性能提升,而是扩展至现金流结构与资产回报率。
这意味着,xAI不再仅仅被当作“模型创新者”看待,而逐渐被放入更接近基础设施提供者的框架中评估。它既是算法公司,也是算力平台;既是技术实验室,也是资本密集型工程组织。外界对它的期待,从“下一次模型突破”,转向“是否具备可持续的系统能力”。
AI竞赛并未减速,但规则正在变化。上半场,拼的是模型能力与算力规模;下半场,考验的是组织韧性与制度成熟度。
对xAI而言,这或许是进入新阶段前的一次压力测试,既要跑得快,也要站得稳。能不能做到,将决定它能走多远。
*特约编译无忌对本文亦有贡献。
本文来自微信公众号“腾讯科技”,作者:李海伦,36氪经授权发布。















