AI大神卡帕西最新演讲:AGI从幻想到落地,先要直面三个现实
6月19日消息,日前在YC人工智能创业学校2025年的闭门课上,AI技术大神、OpenAI联合创始人安德烈·卡帕西称,软件3.0正在把传统编程逼至墙角,程序员们要么学会用提示词“编程”,要么转行去卖提示词生成器。
卡帕西指出,软件3.0正以“提示词即程序”的范式颠覆传统编程—它并非简单叠加手工代码与机器学习,而是通过大语言模型的多重属性,将提示词与系统设计、模型调优融合为新生产力。
问题在于,当前大模型存在“锯齿状智能”(高难度任务与常识判断的能力断层)和“顺行性遗忘”(对话记忆局限)两大缺陷,需通过系统提示学习等方式划定能力边界。
他强调,实现人机协作的关键在于“部分自主性”框架:既需像“钢铁侠战甲”那样通过自主性调节器来平衡AI自主决策与人类信任,又要重构开发生态,而智能体作为连接人类与计算机程序的“双语翻译官”,正推动开发范式从“人适应机器”转向“机器适应人”。
01 软件3.0:提示词即程序的生态重构
卡帕西在演讲中展示的 “软件世代进化图谱” 颇具看点:他将软件发展划分为三个阶段—手工敲代码的“软件1.0”、靠机器学习训练模型的“软件2.0”,以及提示词驱动的”软件3.0”。但这并非和平共处的局面:正如智能手机淘汰按键机,软件3.0正以开挂般的势头挤压前两代生存空间,这一趋势被他称为“不可逆转的技术迭代”。
谈及技术变革的核心爆点,卡帕西打破“1+2=3”的简单叠加逻辑。他指出,软件3.0并非前两代技术的机械组合,而是揉合成的全新物种。就像当下AI工程师能甩开纯提示词工程师,靠的正是“提示词设计+系统架构+模型调优”的组合技能—当多数人还在用“单机游戏思维”玩提示词,掌握复合能力的开发者早已开启了“上帝模式”。
更具颠覆性的是大语言模型的“多面手”属性:这些AI系统如今像“技术变形金刚”般切换角色—当“数字水电工”时提供基础算力,当“代码生产工厂”时直接输出程序内容,当“应用开发者”时支撑各类工具运行,当“在线管家”时同时服务多用户互动。这种全能型表现,正彻底重构传统技术从研发到商业化的固有逻辑。
这种属性组合,把传统技术的商业化逻辑搅了个底朝天。以前新技术都是先贵后便宜,大语言模型倒好,先免费让你玩明白,突然有天告诉你:“我其实能帮你重构整个行业。”
02 LLM心理学:智能锯齿与记忆缺陷的双重挑战
卡帕西提出了“LLM 心理学”(LLM Psychology)框架,揭秘当前大模型的“认知短板”。
他抛出锯齿状智能(Jagged Intelligence)和 顺行性遗忘(Anterograde Amnesia)两大观点,直指当前的大模型存在的主要问题。
其中,“锯齿状智能”理论把 AI 比作“精分学霸”—能解物理系博士都头疼的偏微分方程,却可能在“9.11和 9.9谁更大”这种小学生都会做的数学题上栽跟头。
卡帕西用一组反差萌例子揭开能力断层:当 AI 写论文能引经据典时,却可能建议“鸡蛋剥壳后放进微波炉”;能推导复杂公式,却分不清常识逻辑。这种现象和人类线性成长的智商曲线完全不同—人类像打游戏攒经验值,AI却像被雷劈过的技能树,自然语言理解点满20级,常识判断可能只有3级。
他戏称现在的AI就像《生活大爆炸》里的谢尔顿,智商超群却生活不能自理,开发者得学会在它“犯傻”前踩刹车。有趣的是,解决之道并非砸钱堆算力。卡帕西举事例说,LLM就像给AI开“认知疗法”,让模型回答前先自问“我算对了吗?”,像学生考试时多检查一遍。但在生产环境里,用LLM仍像带熊孩子—让它做擅长的写代码等任务,同时得盯着别在简单题上踩坑,犹如 “人工监督保平安”。
如果说锯齿状智能是智商问题,那顺行性遗忘就是记忆力灾难。
卡帕西打了个狠比方:LLM就像《记忆碎片》里的主角,每次对话都是全新开始——训练结束后它就像被按了失忆键,除了眼前几百字的上下文,过去的知识全成了过眼云烟。想象你有个同事,昨天刚教过他报销流程,今天问他还是一脸茫然,ChatGPT的“记忆”功能就像给这种同事发了便利贴,但还是那种会被咖啡洒湿的劣质货。
人类学习靠“记笔记”,AI却缺了这个功能。预训练是往脑子里塞知识,微调是培养行为习惯,但都得改参数;而我们更需要的是让AI能自己写“学习日记”——比如遇到复杂问题后总结“下次再碰到类似情况,应该先查历史数据”,这就是卡帕西说的“系统提示学习”。
打个比方:预训练是上大学,微调是实习,系统提示学习就是工作后写工作总结。
卡帕西给AI的记忆缺陷打了个生动比方:现在的AI就像没带记事本的外卖小哥,记不住客户偏好还总在“常识路口”迷路。理想的解决之道,是给它一本“数字日记本”,让模型能自己总结解题策略,而不是靠工程师像保姆一样追着喂提示词。
这事儿难在哪儿?好比教失忆症患者写日记—得先让AI搞懂“该记什么”,再琢磨“怎么把日记里的经验变成肌肉记忆”。从识别关键信息到将历史经验内化为自主决策能力,这中间的技术关卡,足够工程师们琢磨好一阵子了。
03 部分自主性(Partial Autonomy):当AI穿上钢铁侠战甲
卡帕西抛出了让AI穿上“钢铁侠战甲”的观点。这套战甲由两部分组成:一是能力增强(Augmentation),赋予使用者力量强化、工具集成、环境感知与信息交互能力;另一个是自主决策(Autonomy),让AI在多数场景具备自主意志,可无需人类指令主动执行任务。
但如何将这套酷炫设定“焊”进现实AI产品?卡帕西抛出了三大解题思路。
第一招:装上 “懂事程度旋钮”。卡帕西提出 “自主性调节器” 概念,就像老式收音机的音量旋钮,能灵活控制 AI 的 “自主度阀门”。以 Cursor 为例,从 Tab 键补全时小心翼翼问 “你是不是想打‘hello’?”,到 Cmd-I 智能体模式霸气宣言 “这事儿我全包了”,宛如实习生一路逆袭成项目骨干;Perplexity 的搜索功能也从 “丢个链接自己看” 的基础款,升级到输出带参考文献小论文的 “研究员模式”;就连特斯拉自动驾驶,也是从 “你握方向盘我帮看路” 的 L1 级,逐步迈向 “你刷手机我来开” 的 L4 级,背后本质是人类对 AI 信任阈值的动态校准。
第二招:踩准人机协同“快进键”。在 AI“出题—人类批改”的协作循环中,卡帕西强调半自主性是破局关键:验证端必须快如闪电,比如要求AI先输出100字极简方案,人类 10秒内就能打勾打叉;生成端则要用“紧箍咒”划定边界,规定代码必须包含指定函数,防止AI“放飞自我”,写出无法运行的“玄学代码”。
第三招:跨越从Demo到产品的“马里亚纳海沟”。卡帕西以Waymo为例敲响警钟:2014年这家公司的全程零干预的自动驾驶原型车,曾让所有人以为“无人驾驶明天就能上路”,结果现实却让司机至今仍需像防贼一样盯着方向盘。这印证了残酷真相:部分自主性才是跨越技术落地鸿沟的桥梁,开发者必须在功能丰富度与可靠性之间找到微妙平衡点。
04 Vibe Coding与智能体开发生态
卡帕西随手发的一条关于Vibe Coding推文,如今已催生数千家初创公司,甚至拥有独立维基词条——这场景堪比“比特币白皮书刚发布时的疯狂”。但魔幻的是,就像网红餐厅排队两小时吃饭五分钟,MenuGen 等工具在本地运行后,AI的“光速编程”特效会突然失效,暴露出现实的骨感。
2025年Web开发的割裂现状
如今的开发工具链像“新旧大杂烩”:老工具如Clerk的文档复杂难懂,AI读起来像破译古文;新工具如Vercel的文档简洁清晰,AI能轻松理解,还被卡帕西点赞。
这种新旧割裂就像让程序员同时用算盘和电脑,效率差得老远。于是DeepWiki这类“知识整理工具”成了刚需,能帮AI自动关联支付接口、物流API等知识,避免像新手一样反复查资料。
数字信息消费新范式
卡帕西指出,工具开发者需重新定义三类用户:通过图形界面点击操作的人类用户(类似用钢笔手写笔记)、通过API接口直来直去交互的计算机程序,以及既能处理数据又能理解人类语言的智能体(像 “双语翻译官”,可帮用户用自然语言操控服务器并自动生成规范 API 代码)。
05 结束语:从AGI幻想转向务实创新
卡帕西提出一个清醒的观点:与其空谈“2027年实现AGI”这种遥不可及的目标,不如脚踏实地解决三个现实问题:
首先,我们需要开发真正实用的半自主系统。就像特斯拉的自动驾驶不是一步到位实现完全无人驾驶,而是逐步完善辅助驾驶功能。这些系统要能理解人类意图,同时具备自主决策能力,关键是要设计好人与AI的协作界面。
其次,软件开发正在经历根本性变革。传统的代码编写(软件1.0)和机器学习(软件2.0)正在进化为软件3.0时代——开发者通过自然语言指导AI生成和优化代码。这就像从手工作坊转向现代化生产线,整个开发流程都需要重构。
最后,大模型应该像水电煤一样成为基础设施。开发者不需要重复造轮子,而是基于这些“AI公用设施”构建应用。就像云计算改变了IT部署方式,AI基础设施将重塑整个技术生态。
这场变革的本质,是从“人适应机器”转向“机器适应人”。未来的赢家不是追求最强AI的公司,而是最懂如何让人与AI协作的团队。这就像工业革命不仅是机器的革新,更是生产关系的重构。我们需要的是实用主义的创新,而非科幻式的空想。
本文来自“腾讯科技”,作者:无忌,36氪经授权发布。