后软件时代,胜出只有这两条路可走

神译局·2026年01月08日 07:12
X + AI守不住旧城池,AI + X才能闯出新天地。

神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。

编者按: 拒绝“AI 套壳”的平庸:要么成为大模型的“供货商”,要么去发明那些只有 AI 才能实现的全新生意。文章来自编译。

在过去的八年里,我先后在 Andreessen Horowitz 以及我现在创办的 Worldbuild 担任投资人,见证了同样模式的不断重演。软件行业曾陷入一个同质化的时代,其发展路径往往由驾轻就熟的融资套路决定,而非真正的创新。同样的单位经济效益,同样的增长曲线,同样的 C 轮及更远的发展路径。创始人往往为了融资里程碑而非构建可持续发展的业务进行优化,导致许多公司以过高的估值筹集了过多的资金。

随着生成式人工智能的兴起和宽松货币政策的终结,那个时代已经落幕。作为一名投资人,我感到非常兴奋;AI 终于开启了自移动革命以来久违的真正创新潜力。然而,我看到一些创始人仍在为营销或金融领域构建专业的 AI 产品,就好像他们还在打造过去十年的那种订阅制软件工具一样。那些仍套用旧框架的人,即将犯下一个巨大的错误。

在这个时代,为了实现足以吸引风险投资人的成果(即数十亿美元规模的退出),当今的创始人需要汲取图灵奖得主、强化学习先驱理查德·萨顿(Richard Sutton)提出的“苦涩的教训”。萨顿的预言最早在 2010 年代初的计算机视觉领域(一个训练计算机解读视觉图像信息的早期 AI 领域)得到证实:当时,算法复杂度较低但数据量更大的系统,彻底推翻了统治该领域多年的手工编程方法。专业化最终会输给拥有更多算力和训练数据的更简单的系统。但为什么说这是一个“苦涩的教训”呢?因为这要求我们承认一个难以接受的事实:我们直觉上认为的人类专业知识优于规模效应的观点是错误的。

这种现象已经在发生。事后看来,基础模型会让早期的 AI 写作工具变得毫无意义,这似乎已显而易见;但同样的命运正降临在每一个将 AI 模型“强行接入”现有工作流的专业 AI 工具上——无论是在金融、法律,甚至是在自动代码生成领域。这些专用工具都坚信自己可以通过模型构建特定的工作流来击败基础模型,但核心问题在于,基础模型的能力正变得越来越强。如下表所示,通用模型能够完成的任务长度每七个月就会翻一倍。它们的发展轨迹正威胁着要吞噬掉建立在其之上的任何“套壳”应用。

随着通用模型变得更加强大,AI 能够完成的任务长度每七个月翻一倍。(来源:Model Evaluation & Threat Research。)

在与数百位利用 AI 创业的早期创始人交流后,我看到了两条道路正在慢慢呈现。一条通向那“苦涩的教训”——并在 18 个月内变得无足轻重;另一条则通向定义这个时代的伟大企业。这些定义时代的业务分为两类:一类是构建模型进化所需的资源——算力、训练数据和基础设施;另一类则是发现那些只有靠 AI 才能实现的工作。

让我们深入探讨这两类业务的具体面貌,以及如何判断你属于哪一类。

你缺的不是创意,你缺的是时间。

第一条路径:模型经济

与“苦涩的教训”并行的构建方式之一,是既把 AI 看作是一种构建工具,也看作是一个构建目标。关于后者,我指的是那些开发能让模型能力得以实现并增强的数据或基础设施的业务,而不是单纯开发目前那些利用 AI 的应用。我称之为“模型经济”。

许多规模化发展的公司已经通过直接向实验室供货来顺应这一转变。其中包括甲骨文(Oracle),其为模型构建者提供算力的合同储备已增至近 5000 亿美元。AI 云计算公司 CoreWeave 和 Crusoe 同样是这股浪潮的受益者,它们从比特币挖矿转型为 AI 实验室提供算力和数据中心;Scale AI 也是如此,该公司最近获得了 Meta 的 140 亿美元投资,用于为训练大语言模型提供高质量的标注数据。

模型经济的四大机遇

在以下四个领域,将会诞生大型且可持续发展的模型经济企业:

算力商品化

AI 能力将继续沿指数曲线扩展,这需要更多的算力(芯片)和能源。但短期内,波动在所难免:超大规模云服务商在同一季度内可能会在 GPU(驱动 AI 的专用处理器)过剩与短缺之间剧烈摆动。比方说,微软在今年早些时候就经历了从 GPU 过剩到短缺的转变。最具生命力的初创企业将同时应对两种现实:AI 对算力需求的确定性,以及供应紧缺与过剩交替的混乱。我们一直在投资“交易所模式”——即匹配算力或能源供需、提高资产利用率(比方说确保芯片满负荷运行而非半负荷运行)并构建这些资源交易机制的公司,如 AI 算力市场 San Francisco Compute Company 和 Fractal Power。这些公司能够抵御波动,甚至从中获益。Meta 进军批发电力交易,旨在为快速增长的 AI 数据中心保障灵活的电力供应,这一举动预示了未来的方向。首先我们将交易驱动 AI 的电力,然后我们将交易算力本身。

运行在设备端的 AI

由于延迟(或实时响应需求)、隐私、连接性或成本限制,某些 AI 无法在云端运行。比方说,一位对冲基金分析师希望模型对交易策略进行数天的推理,而不将其暴露给任何人。在这一类别中,专用的硬件和网络在本地运行和管理强大的 AI 模型,而不是在别人的云端。获胜者将把硬件和软件紧密结合,以实现发生在设备端的 AI 体验。Meta 对可穿戴设备的持续投资就是一个例子,初创公司 Truffle 也是如此,他们正在为 AI 模型构建专门的计算机和操作系统。这一类别还可能包括创建本地 AI 网络的初创公司,这些网络可以汇集来自各种来源的计算能力,包括电脑、显卡、游戏机甚至机器人车队。

数据交易平台

为了获得更精细的输出,AI 模型需要日益专业化的数据(比方说,利用匿名化的医学影像数据来提供更好的健康咨询方案)。如今,大部分此类数据都存在于各种企业内部,从小型公司到大型企业不等。新型的数据交易类公司可以应运而生,帮助这些企业了解其拥有的哪些数据可能对模型供应商有用,并促成授权交易,比方说 Reddit 向谷歌授权数据。或者,模型供应商可以指定他们需要的数据(比方说最新的医学研究数据),由这些交易类公司负责寻找来源。

安全

今天的安全侧重于防御:防火墙、加密和阻止黑客入侵。而模型经济的安全则侧重于进攻。这些公司将组建团队,有目的地破解 AI 系统,揭示它们可能被操纵以生成有害内容或进行企业间谍活动的途径。随后,他们可以将这些服务提供给大公司,以便在漏洞被利用之前完成修补。

第二条路径:后拟物化应用

尽管我前面说了这么多,但并非所有的 AI 应用(即构建在基础模型之上的产品)都注定失败。

那些会落入“苦涩教训”陷阱的应用,是那些从现有工作流(如更新库存数据)出发并将其“AI 化”的产品。而能够生存下来的应用,将利用模型独特且细微的特性,去发明以前在技术上无法实现的新工作流。我称之为“后拟物化应用”。

“拟物化”是一种陷阱,它假设新技术既然出现了,就应该长得像以前的东西。早期的移动应用经常陷入这种模式。它们复制了物理世界:垃圾桶图标看起来就像真实的垃圾箱,第一代 iPhone 上流行的“喝啤酒”应用。但它们并没有探索手机特有的潜能。

最终获胜的应用彻底打破了这一陷阱。Uber 并没有将出租车调度台数字化。它问的是:当每个人的口袋里都有一部知道自己在哪里的手机时,什么会变成可能?正如投资人马特·科勒(Matt Cohler)所说,手机变成了生活的遥控器——叫外卖(DoorDash)、叫车(Uber)、买菜(Instacart)。它们并没有去适应现有的工作流,而是发明了全新的工作流。

AI 目前正处于完全相同的拐点。大多数 AI 应用正在获取现有的流程(如写作或客户服务),并为其套上模型的外壳。其最终结果可能与那些优秀的写作助手一样——它们的优势逐渐被 GPT 和其他基础模型蚕食。

能够获胜的创始人正在问一个不同的问题:现在什么变得可能了?我们可以发明哪些只有 AI 才能实现的工作?模型具有独特的属性——它们可以与其他模型协作,从每一次交互中学习,并针对没有预设答案的问题生成新颖的解决方案。获胜的应用将发现利用这些特性的工作流。我们现在可能甚至还不知道这些工作流长什么样。

Figma 在 AI 领域之外提供了一个有用的参照。其创始团队的第一步不仅仅是尝试在浏览器中重新设计 Adobe 的设计套件。相反,他们实验了 WebGL(一项 2011 年开发的技术,能让浏览器调用计算机显卡芯片)带来的可能性。Figma 联合创始人埃文·华莱士(Evan Wallace)最初对 WebGL 的实验证明,复杂且具有交互性的图形可以直接在浏览器中平稳运行,这为 Figma 的浏览器渲染引擎铺平了道路——这是一个真正的“后拟物化”应用。

后拟物化应用的三大机遇

后拟物化应用将在以下三个领域产生价值数十亿美元的成果:

同时协调多个智能体

在多智能体协作领域,我已经体验到了后拟物化应用的潜力。作为一名投资人,我使用多个模型来扮演不同的角色,它们与我一起互相提示,创建了一个类似虚拟投资委员会的东西。我让一个模型生成提示词,然后将该提示词输入到另一个模型中。当我只使用单一供应商的模型时,我发现它会陷入停滞或自我循环。但当我引入多个模型时,结果往往能跳出那种“阿谀奉承”的循环(sycophantic spiral)。(你可以通过 Andrej Karpathy 的 LLM Council 亲自尝试一下。)

同时使用多个智能体的工具将能抵御“苦涩的教训”,因为其价值不在于任何单个模型的能力,而在于它们交互产生的行为,这能减少幻觉并实现更好的评估。与其一味迎合,模型往往给其他模型的输出打分高于自己的输出,从而创造出一个更“诚实”、更不易产生自我确认偏差的评估系统。

后拟物化应用将避免构建在单一模型之上,而且可能不仅仅是以线性方式在工作流中帮助用户的“副驾驶”(co-pilots)。相反,它们将策划一个智能体集群,每个智能体都有独特的角色和专业知识,它们从每次交互中学习,在正确的时间将工作路由给正确的智能体,并随着每次使用而变得更好。它们的表现将不再像传统的软件,而更像一个不断进化的蜂群思维(hive mind)。

大规模模拟

特别是在科学领域,AI 实现了大规模模拟——数千个由计算机运行的实验并行开展。以前,研究人员需要手动编写特定且僵化的规则(比方说,药物分子如何与蛋白质相互作用),运行几次模拟,并寄希望于它们接近现实。

有了 GPU 和 AI,工作流发生了变化:数千次运行并行发生,结果反馈给模型,参数不断更新。系统不再是一次运行一个测试并等待结果,而是同时运行数百或数千个测试,并一次性从所有测试中学习。

这开启了全新的工作类型——在系统层面做出反应的虚拟细胞,在几分钟内完成映射的蛋白质结构,以及在没有超级计算机或专门软件的情况下对数百万个新药候选分子进行筛选的平台。此类应用并不是在模仿实验室,而是以极高的速度定义了属于自己的“计划、测试、学习、重复”的闭环。

持续反馈循环

传统软件依赖于离散的输入和输出。而模型原生应用则从每一次交互中学习,并在持续反馈循环中运行,这使它们能够个性化、优化并预测用户需求。

像 Datadog 这样的监控平台通过观察大型软件系统来确保其正常运行。通常情况下,当发现问题时,系统会向人类工程师发出警报,由后者负责修复。拟物化的 AI 方法会增加更智能的仪表盘和更好的根因建议,但仍将人类保留在决策环节中。而真正的后拟物化系统则通过持续的自主反馈循环彻底排除人为干预。当 API 响应时间激增时,系统不仅仅是提醒工程师,而是会生成关于潜在原因的假设,启动并行基础设施以安全地测试修复方案,并自动实施显示出改进效果的解决方案。每一次干预都会教给系统更好的预测和预防策略,从而创造出无需人类干预就能自我观察、自我诊断和自我愈合的软件。

其最终状态看起来像是具备自我愈合能力的软件,而不仅仅是监控和报警平台。

值得思考的一个问题

历史很少向投资者发出正式的请柬,但萨顿的“苦涩教训”可能是我们能得到的最接近请柬的东西。如果尺度法则(scaling laws)仍继续生效,并帮助模型缩小在领域专业知识和专用功能方面的差距的话,那么今天看起来持久的优势可能仅仅是暂时的套利空间。

作为一名风险投资人,唯一需要问的问题是:这家公司是否注定会被“苦涩的教训”所吞噬,还是能通过为规模化或真正的创新而构建来蓬勃发展?对于创始人来说,问题甚至更简单:你是在开发模型终将取代的东西,还是模型生存所需的东西?

译者:boxi。

+1
15

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

喂模型垃圾数据,它就会自信满满地给出错误结论。

昨天

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业