红杉 AI 大会2026:工作方式,彻底变了

AI深度研究员·2026年04月30日 10:53
过去一年,大多数人对 AI 的理解,仍停留在“它是一个更快的工具”。但这场峰会所传递的信号,不是效率的提升,而是规则的改写。

“我不记得上一次手动修改 AI 的输出,是什么时候了。”

在红杉 AI 2026 大会的现场,Andrej Karpathy 说这句话时,语气很平静。一个写了十几年代码的人,开始不需要改工具的输出了。

过去一年,大多数人对 AI 的理解,仍停留在“它是一个更快的工具”。但这场峰会所传递的信号,不是效率的提升,而是规则的改写。

什么样的规则? 怎么做事,谁来做事,以及为什么做事的规则。

接下来的四年,可能比过去十年的变化都要剧烈。

第一节|做事方式彻底换了

在那场对话中,Andrej Karpathy 说:两三年前我们写代码,是在一行一行地规定机器该怎么做;现在很多时候,你只需要把目标讲清楚,模型自己就会把路径走完。

软件的底层范式变了。

过去,软件是明确规则的集合,人负责把每一步写清楚。后来进入机器学习时代,人不再手写规则,通过海量数据去训练模型。而现在,大语言模型让“不动手”成为现实:你只需要提供上下文和指令,让一个全能的解释器去完成整段工作。

表面上看,这只是一种效率的加速。但真正颠覆的地方在于,中间层被拿掉了。

他用自己做过的一个项目举例。为了让用户拍下菜单就能看到菜品长什么样,他曾经写过一个完整的应用:先识别文字,再调用图像模型,最后将结果重新排版展现。这是最典型的软件工程思路,把复杂问题分解成若干步骤,再逐一实现。

但后来他发现,把照片直接扔给最新的模型,附上一句指令,它就可以直接在原图上生成结果。没有中间的应用,没有那一整套冗长的流程。

传统的软件设计思路是这样的:我有一个功能需求,所以我需要搭建一套实现路径。这套路径本身,就是企业的护城河。用户之所以为你的产品买单,很大程度上是因为你把这条路径做得更流畅、更稳定,或者成本更低。

但当模型能力足够强大时,这套路径本身就不再稀缺了。用户要的从来都不是一个做图片标注的应用,他们真正要的只是看到这道菜长什么样。一旦结果能被直接生成,那些围绕怎么实现建立起来的产品,存在的理由就要被重新审视。

首当其冲的,是那些核心价值在于格式转换的工具。各种文档转换服务、数据清洗工具、格式适配层,它们过去解决的是系统看不懂原始文件的问题。但当模型能够直接理解原始输入时,这些中间转换的环节就变成了多余的步骤。

同样,低代码平台的一部分核心价值也在被重新定义。它们原本的使命是降低分解步骤的门槛。但如果未来做事的方式,本身就从分解步骤变成了描述目标,这类平台要么必须往更深的行业专业领域扎根,要么就得回答一个致命问题:当生成能力接近免费时,你到底在帮用户解决什么?

如果你的价值是把复杂的事情拆成一步步的操作,这件事正在变得不再稀缺。但如果你的价值是帮用户判断什么结果才算对,这件事反而变得前所未有的重要。

以前做事,是把步骤理清楚;现在做事,是把目标讲清楚。

第二节|人机分工正在重构

对于 OpenClaw 这种智能体的爆红,Andrej Karpathy 观点是:

“现在的智能体,很像实习生。”

它们可以独立完成一大段工作,在某些环节上表现稳定,又会在一些细节上犯下让人意外的错误。

Karpthy 认为,未来有一个核心标准决定了哪些事情会被机器完全接管:可验证性。

如果一件事的结果可以被清晰地判断对错,比如代码能不能跑通、数据符不符合格式,那它就很容易被自动化。反之,如果一件事需要在多种可能性中做权衡,没有唯一标准,模型就很难单独完成。

但并不意味着机器能做的事情固定不变。因为可验证的范围一直在扩大,机器能做工作也越来越多。

过去,写代码被认为需要创造力,是不可验证的。但当你把它分解成实现某个具体功能,它突然就有了验证标准:测试能不能过。同样,设计界面看起来很主观,但如果验证标准变成是否符合品牌的视觉规范,它也就变得可验证了。

判断一个岗位会不会被影响,不能只看职位名称,要看它的工作有多少比例可以被分解成有明确验证标准的任务。

一个高级设计师,可能 80% 的时间都在做可验证的执行工作,只有 20% 在做真正的创意决策。这 20% 很安全,但那 80% 正在快速转移。

同样的逻辑也适用于会计、法务和客服。大量的规则验证、文档审查、标准问题响应,都在被自动化。但最终的签字责任、风险判断、复杂纠纷处理,依然需要人来承担。

于是,一个新的分工逐渐清晰:模型负责执行,人负责设定边界和方向。

人不再需要盯着每一个细节,也不需要死记硬背繁琐的操作步骤,但必须清楚一件更核心的事:这件事应该怎么被定义,什么样的结果才算正确。

做的环节交给机器,定的环节留在人手里。

但这种分工,会持续多久?

第三节|为 AGI 做准备

回答这个问题的,是 Demis Hassabis。在接下来的对话中,他给出了一个明确的时间判断:2030年。

这是他对 AGI(通用人工智能)实现时间的预测。距离现在,只有四年。

如果你今天开始创业,按通常的节奏,这需要 5-8 年时间成功。而 AGI 会在这 10 年的中间出现。

这不是一个可以忽略的变量。你必须做一些在 AGI 到来时,依然具有不可替代价值的东西。

Demis 说:

“他一直在观察智能体的发展。我们才刚刚起步,过去几个月,人们才开始找到真正有价值的应用点。未来 6 到 12 个月,会有更大的进展。”

那创业者应该怎么办?

他给的建议是:结合 AI 与深科技(Deep Tech)。去做材料科学、医学,去做那些真正艰难的物理领域。这些方向有一个共同点,它们涉及真实的原子世界,通往成功的路上没有捷径。换句话说,它们不会被基础模型的下一次更新浪潮轻易洗牌。

在纯软件层面,变化太快了。今天你搭建的中间层,明天可能就被模型自身能力的提升给覆盖了。但如果你在解决一个需要深入理解物理世界、生物系统或材料特性的问题,护城河就会深得多。

公司要找护城河,个人也一样。

在这场峰会上,Andrej Karpathy 说了一句话:你可以把思考过程交给 AI,但你不能把理解力交给 AI。

什么是理解力?

知道问题到底出在哪,

知道为什么这件事值得做,

知道目标究竟该被如何定义。

Andrej 发现,现在的他反而成了整个工作流的瓶颈。瓶颈在于弄清楚到底要做什么以及为什么值得做。LLM 可以无限生成、可以高效执行,但它无法替你理解一件事对于人类而言,为什么重要。

所以,什么变得更重要了?

记住 API 参数已经不重要了,掌握提示词技巧也不是核心,真正重要的是建立更深的理解。理解一个行业的底层逻辑,理解用户真正的需求,理解商业价值究竟从何而来。

你可以把怎么做交给 AI,但你不能把知道为什么交给 AI。

四年后,当 AGI 真正到来时,这种理解力的价值,会变得前所未有的清晰。

因为到那时,能被自动完成的动作会有无数个,能被一键生成的方案会有无数种。但依然需要有人去定义:到底什么值得被完成,什么值得被生成。

AI 可以做无数件事,但只有人知道哪件事值得做。

结语|最后的护城河

过去,人围绕工具安排工作。

现在,工具开始深度参与工作。

接下来,人只负责决定方向,把实现彻底交出去。

你可以把思考过程交给模型,让它帮你生成、执行。但有一件事始终不能交出去:知道什么是对的,什么是真正值得去做的。

这是 2026 年的起点,也是接下来四年的主题。

参考资料:

https://www.youtube.com/watch?v=96jN2OCOfLs&t=461s

https://www.youtube.com/watch?v=AFpeWo1GTeg&t=1s

https://www.youtube.com/watch?v=JNyuX1zoOgU

来源:官方媒体/网络新闻

本文来自微信公众号“AI 深度研究员”,作者:AI深度研究员,编辑:深思,36氪经授权发布。

+1
6

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

跨界具身智能,以柔性仿真破训练难题。

1小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业