个人提效10倍,公司颗粒无收:AI时代的“电力悖论”正在重演
神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。
编者按:个人效率提升10倍,公司价值为何纹丝不动?AI时代不缺好工具,缺的是一套像“流水线”一样的机构化蓝图。文章来自编译。
AI 刚刚让每个个体的生产力提升了 10 倍。可是,没有任何一家公司因此而增值 10 倍。那这些生产力究竟流到哪里去了呢?
这种情况并非首次发生。19 世纪 90 年代,电力曾许下大幅提升生产力的诺言。当时,新英格兰地区的纺织厂原本是为利用蒸汽机的转动力而建的,它们迅速在原位换上了速度更快的电动机。
但在长达三十年的时间里,这些电气化工厂的产出几乎没有任何增长。技术确实突飞猛进,但组织架构却止步不前。
直到 20 世纪 20 年代,当工厂再次彻底重新设计——引入了流水线,为每台设备安装了独立电机,并让工人和机器各司其职、执行截然不同的任务时,电气化才产生了实质性的回报。
图 1:洛厄尔纺织厂(Lowell Textile Mills)的三次演变。从左至右依次为:1890 年的蒸汽动力工厂、1900 年的电力发动机工厂,以及 1920 年作为电气化流水线彻底重建的“单元驱动”工厂。
这些回报并非源于技术本身,也不是因为让单个工人或机器纺纱的速度变快了。只有当我们最终将机构组织与技术同步重新设计时,这种增长收益才真正显现。
这是科技史上代价最为高昂的一课,而我们现在正重新经历这一过程。
到 2026 年,AI 正驱动着那些懂得运用它的人实现 10 倍的生产力增长。但这还远远不够。我们只是更换了发动机,却还没有重新设计工厂。
原因在于一个简单的核心事实:个人高产并不等同于企业高产。
绝大多数 AI 产品只是给人一种“我很高效”的错觉,但在驱动实际价值方面却收效甚微。目前大多数公开的 AI 应用案例,不过是个人在 Twitter 或公司 Slack 频道里自我陶醉式地进行“生产力极限榨取”,对现实业务几乎没有任何实质性影响。
这个世界总有那么一个人:他用 Notion 记笔记、Superhuman 发邮件、Mac Mini 跑 OpenClaw,还配着 Raycast 快捷启动、400 刀的机械键盘和 Wispr Flow 语音输入——结果每天啥正事都没干成。
这一年来被反复提及的“服务即软件”(services as software)主题虽然方向正确,但并未给出具体蓝图。而且它忽略了一个更大的图景:真正的转变不在于从工具转向服务,而在于将技术与机构(无论是传统机构还是新兴机构)融为一体。一个真正高效的未来需要一类全新的产品——即明天的“流水线”。
高效的组织需要的是“机构化智能”(Institutional Intelligence)。
本文将深入探讨区分“机构化 AI”与“个人化 AI”的七大要素。未来十年的整个 B2B AI 领域都将建立在这些差异之上:
机构AI的七大支柱
1. 协同
个人化 AI 制造混乱。机构化 AI 创造协同。
让我们先做一个思想实验。假设明天你将公司的员工数量翻倍,而新增的全部是你最优秀员工的克隆体。
这些员工每个人都有细微的差别、偏好、怪癖和视角(如果你最优秀的员工,情况更是如此)。如果他们没有得到充分的管理,如果没有充分的沟通,如果他们的业务边界、OKR、角色和职责没有明确定义……那么你制造的就是一场混乱。
从个体层面衡量,组织或许变得更高效了,但成千上万个智能体(或人类)向相反的方向划桨,往好里说会导致停滞不前,往坏里说会彻底破坏组织的和谐。
这并不是假设。目前在每一个引入 AI 但缺乏协同层的组织里,这种情况都在发生。每个员工都有自己的 ChatGPT 使用习惯、自己的提示词风格,以及完全不与其他人的产出接轨的独立成果。组织架构图或许还在,但 AI 生成工作的实际流向却呈现出另一番景象。
图 2:高产的个体(或智能体)各自向不同方向划桨。如果缺乏协同,必然导致混乱。
无论对于人类还是智能体,协同都是绝对的刚需。
机构化智能将演变成一个完整的“智能体管理”(Agentic Management)产业,专注于智能体的角色与职责、智能体与智能体以及智能体与人类之间的沟通,并衡量智能体创造的价值(单纯按量计费已不足以满足需求)。
2. 信号
个人化 AI 制造噪音。机构化 AI 寻找信号。
今天的人类能够创造,或者说生成,任何能想象到的东西:AI 文章、PPT、表格、照片、视频、歌曲、网站乃至软件。这简直是天赋神技。
问题在于,AI 生成的绝大部分内容都是彻头彻尾的废话垃圾。这些 AI 垃圾的泛滥已经严重到让一些组织反应过度,甚至全面禁止 AI 产出。我对此深有感触……我自己经营着一家 AI 公司,但我要求我们的高管团队不要在任何最终书面成果中使用 AI。我实在受不了那些空洞的废话。
想象一下私募股权(PE)领域正在发生的变化。去年,可能有 10 个项目摆在你的桌上。而今年,你下个季度就会收到 50 个机会,每一个都经过 AI 润色得尽善尽美,而你寻找那个真正有价值项目的可用时间却一点没变。
“生成”已经不再是问题。对于当今任何严肃的组织来说,问题在于如何生成并筛选出“正确”的东西。在 AI 驱动的世界里,在噪音中寻找那一个优秀的成果、那一个优质的项目、那一个关键的信号,变得愈发重要。未来十年的核心经济驱动力,将是在呈指数级增长的垃圾信息大山中挖掘出有价值的信号。
图 3:来自个人生产力工具的 AI 废话正以指数级速度扩散。单靠人类无法梳理这些噪音,因此需要机构级别的全新 AI 产品。
机构级智能必须能够发现信号,必须能够将噪音结构化以剔除废话,并且其工作必须是可定义的、确定性的且可审计的。
个人化 AI 可能强调像 Claude 机器人那样“永不停歇”的生产力,以不可预测的方式满足各种全天候需求(即非确定性智能体);而机构化 AI 则依赖于确定性智能体那如同承重墙般的预测性。拥有可预测的检查点、执行步骤和流程的智能体才能实现规模化,才能发现信号,并通过这些信号为组织驱动收入回报。
图4:Matrix这个工具可利用生成技术排除噪音,从而打开了确定性智能体的世界大门
3. 偏见
个人化 AI 助长偏见。机构化 AI 创造客观。
多年来,关于社会政治偏见的担忧在AI 相关讨论中一直占主流位置。基础模型实验室最终通过大量的 RLHF(基于人类反馈的强化学习)绕过了这个问题,实际上把所有模型都变成了“马屁精”。如今,ChatGPT、Claude 等模型由于(过度)对齐,会在“奥弗顿窗口”(社会可接受的言论范围)内的任何话题上附和你的观点。虽然社会政治偏见的争论平息了,但一个新问题随之而来。
这种在所有事情上都保持一致、过度对齐的程度已经到了滑稽的地步,甚至演变成了一个梗……无论你是否真的正确,Claude 都会条件反射式地回答:“您说得完全正确!”
这听起来无伤大雅,实则不然。
在许多组织内部,那些叫得最响的 AI 拥护者,可能很快就会成为有史以来表现最差的那批员工。想想这是为什么。
公司里表现最差的员工每天几乎得不到任何正面激励,但很快他们就会拥有一个对他们百依百顺的超级智能(ASI)。他们会喃喃自语:“全世界最聪明的智慧都认同我,那肯定是我的经理错了。”
这让人陶醉,但对组织来说却是剧毒。
图 5:个人化 AI 信息茧房加剧了分歧,将人们彼此拉开。这种动态在大规模扩展时,会在原本统一的组织内制造派系。
这揭示了一个重要问题:这些个人生产力工具在强化“用户”的观点。而在现实中,最需要被强化的应该是“真相”。
数千年来,组织进化的过程就是建立一套系统来抵消这一问题:比如投资委员会会议、第三方尽调、董事会……
图6:客观性甚至可以缓解协调问题——它能平抑微小的分歧,而非将其放大。
组织极少因为人们缺乏信心而失败。它们的失败往往是因为没有人愿意、或没有能力说“不”。
机构化 AI 必须扮演这个角色。它不应通过 RLHF 被训练成只会讨好用户或复读其信念的工具,而应去挑战用户的偏见。它要在行为高效时给予强化,并在出现低效倾向时划清界限进行纠偏。
因此,组织内部最重要的智能体不应是“唯唯诺诺者”,而应是训练有素的“唱反调者”,负责质询推论、揭示风险并执行标准。未来一些最有影响力的 AI 应用将围绕机构约束而构建:AI 董事会成员、AI 审计师、AI 第三方测试、AI 合规官等等。
4. 优势
个人化 AI 优化使用率。机构化 AI 优化竞争优势(Edge)。
AI 的终点线每周、甚至每天都在移动。基础模型公司为了争夺每一个用户和每一家企业,正在飞速迭代各项功能。
但在经典的创新者窘境下,针对特定应用,深度每次都能战胜广度:Midjourney 的职责是在设计图像上保持领先;ElevenLabs 的职责是在语音模型上稍胜一筹;而 Decagon AI 的职责则是永远在全栈客户服务体验上领跑……
虽然基础模型会不断逼近,但对于领域专家来说,真正的“微弱优势”至关重要。只要专业定制的方案也在同步进化,那么对于商业产出有决定性意义的能力,永远会掌握在这些专业产品手中。
这一点在金融领域体现得淋漓尽致——这是目前大模型开发最炙手可热的领域。一旦某项能力变得普及,从定义上讲它就无法帮你跑赢市场。但如果前沿技术能带来哪怕只有 1% 的短暂细分优势呢?这 1% 的优势就可以通过杠杆放大成数十亿美元的回报。
图 7:对于任何足够具体的任务,其竞争优势(Edge)取决于你在前沿技术(Frontier technology)之上构建的机构化解决方案。
我们的用户始终在突破前沿技术的极限。在短短四年内,大语言模型(LLM)的上下文窗口已从 4K 增长到了 100 万 token。目前,我们已有一些用户在单次任务中处理高达 300 亿 token 的数据。今年,我们预计将看到 1000 亿 token 级别的任务。每当基础模型的能力有所提升时,我们往往早已更进一步。
图 8:上下文窗口与其它模型能力一样,是一场‘移动球门’的博弈。这是过去三年中,前沿实验室(Frontier labs)与 Hebbia 在上下文窗口演进上的对比。
让大众普及使用 AI 本身就是一个重要且值得追求的目标,特别是在引导员工入门 AI 阶段。但未来并非‘人们使用 ChatGPT/Claude 或 领域特定解决方案’的二选一,而是‘ChatGPT/Claude 与 领域特定解决方案’的协同并进。
机构智能(Institutional Intelligence)必须利用特定领域、甚至特定任务的智能体(Agents)。
我们问了自己一个听起来荒谬但实则不然的问题:‘通用人工智能(AGI)会选择使用哪些智能体作为捷径?即便是超级智能,也会希望针对特定领域使用定制化的工具。
在 AI 领域,‘球门’(衡量标准)总是在不断移动,而那些能够利用真正能力优势(True Edge)的组织,才是最后的赢家。除此之外的其他人,只是在为一种极其昂贵的‘大宗商品’买单。
5. 产出
个人化 AI 节省时间。机构化 AI 扩大营收。
Ma Volpi 曾对我说过一句话,重塑了我对向企业销售 AI 的认知:“如果你问任何一位 CEO,他们的首要任务是削减成本还是扩大营收,几乎所有人都会说是营收。”
然而,目前市面上几乎所有的 AI 产品都在推销“削减成本”,承诺帮我们节省时间、以少胜多或取代人力。
机构化 AI 必须带来业务增量。相对于“节省时间”,业务增量想要被商品化则困难得多。
以智能体软件开发(Agentic Software Development)为例:编程 IDE 是有史以来最出色的‘个人 AI 生产力工具’之一,但它们已经面临来自 Claude Code(另一种个人 AI 工具)的巨大冲击。而 Cognition 公司则在玩一场完全不同的游戏——他们增长最稳健的业务是构建‘技术转型服务’,而非仅仅销售‘工具’。我更看好这种持久的竞争力。
“纯软件正‘迅速变得失去投资价值’。而纯服务则无法实现规模化。真正的持久价值,积聚在将技术与成果相结合的‘解决方案层’(Solution layer)。
以并购(M&A)为例。个人化 AI 帮助分析师更快地建立模型;而机构化 AI 则能从一百个候选者中识别出那一个值得追求的交易对手,并将潜在目标范围扩大到一千个。前者省了时间,后者创造了真金白银。
图 9:基础模型公司正在向垂直应用层延伸;而垂直应用层公司则正在向解决方案层攀升。
向“上游”移动是目前市场的自然引力。基础模型正在进入应用层,而应用层公司正在进入方案层。机构化智能就是方案层。在方案层这个直接决定产出的地方,将积累长久的价值并捕获最大的增长红利。
6.赋能
个人化 AI 给你工具。机构化 AI 教你如何使用工具。
人类虽然充满智慧,但本质上是拒绝改变的。信不信由你,纽约现在依然有一些不收信用卡却经营得风生水起的生意。他们知道自己在亏钱,但依然在惯性中不为所动。同样,在可预见的未来,某些组织的某些员工仍会拒绝使用 AI。
从纯人工组织向 AI 优先的混合型组织转型,将是未来十年持久且具有定义意义的挑战。而在很多情况下,组织中级别最高、最重要的那帮人往往采纳新技术最慢。
图 10:组织中的最高层——那些离具体的‘生产力工具活动’最远的人,往往是对新技术落地最慢、却也最重要的决策者。
在过去两个月科技股数万亿美元规模的抛售潮中,Palantir 是唯一一家估值倍数依然高得惊人的‘软件’公司,这绝非偶然。Palantir 是首批真正的‘流程工程(Process Engineering)’公司之一。无论你称之为‘流程工程’还是‘编写 Claude 技能文件’,未来的机构级 AI 都会诞生一个专门的行业,致力于将企业流程编码进智能体中,并实现将这些智能体投入运行所需的变革管理。
图 11:要实现全组织的全面采用,需要跨越重重鸿沟,每一道鸿沟都伴随着各自的挑战。将全组织的各项流程上线并接入 AI,将成为核心驱动力。
我敢断言,流程工程在短期内将成为可以说最重要的‘技术’。而在流程工程中,商业和行业专长——而非软件技术专长——才是最重要的。领域特定的解决方案,其核心价值源于那些负责前线工程、部署以及变革管理的专业人员所具备的深厚经验。
一家选择了 Hebbia 进行全面部署的前三强全球性投行(Bulge Bracket Bank)对此总结得最为精辟:他们之所以拒绝与某家大模型实验室合作,是因为他们竟然‘还得向对方的团队解释什么是 CIM(机密信息备忘录)’。虽然 Claude 或 GPT 模型本身肯定知道这个领域的知识,但负责架构部署方案的实验室团队却一窍不通……
而这,便是成败的关键所在。
7. 主动性
个人化 AI 响应人类指令。机构化 AI 自动采取行动。
现在关于智能体之间通信,以及未来的商业、软件和机构是否还需要人类的讨论很多。
然而,一个更好的问题是:未来的 AI 智能体是否还需要“提示词”(prompting)?
给通用人工智能(AGI)发指令,就像把电动机挂在旧式动力织布机上一样。它从根本上、无可挽回地受限于组织供应链中最薄弱的一环——也就是我们。人类很难知道该问什么正确的问题,更不用说知道什么时候该问了。
AI 能做的最有价值的工作,是那些没人想到去要求它做的工作。AI 应该发现没人标记的风险、没人想到的交易对手,以及没人察觉的销售渠道。
当你消除了人类向 AI 发指令的需求时,全新的交互界面和工作方式就会应运而生。
结语
以上这些都并不是要否定聊天机器人、智能体以及整个个人化 AI 的必要性。个人化 AI 是这个世界上大多数企业首次体验 AI 变革魔力的媒介。
但与此同时,对于机构化智能的需求也显而易见,是很迫切且很巨大的。未来每个组织都会拥有来自大型实验室的聊天机器人,同时也都会拥有专为特定领域问题设计的机构化 AI。
机构化 AI 与个人化 AI “双剑合璧”的故事是必然趋势。
但请记住 19 世纪 90 年代纺织厂的教训:那些只是率先通电的工厂,最终输给了那些重新设计了整个生产车间的工厂。
我们已经拥有了“电力”,现在是时候重新设计我们的“工厂”了。
译者:boxi。















