如何成为AI无法淘汰的人?答案藏在你的判断力里

哈佛商业评论·2026年02月06日 12:09
AI时代的核心挑战。

当我们在为AI带来的效率提升感到兴奋时,一个容易被忽略的风险正在浮现:AI在帮助新手快速完成任务的同时,也可能让他们失去成长过程中最重要的“犯错-学习”机会。这篇文章指出了一个关乎每个人职业发展的核心问题:如果基础工作都被AI代劳,我们该如何培养关键的判断力?这不仅是企业的管理挑战,更是每位职场人需要思考的长期课题。

几年前,我在一家咨询公司首次尝试将生成式AI作为工作伙伴时,观察到一种令我惊讶的现象:AI对我的帮助远大于对那些经验较浅的同事。

在我的工作中,AI能帮助我更快完成研究整合、分析等需要专业知识的任务。虽然产出质量并非完美,但方向基本正确,我也能轻松调整引导。而对刚入职的分析师而言,使用AI的体验却截然不同——他们确实能快速生成内容,但成果并未比使用AI前有实质性提升。更引人深思的是,他们往往难以判断产出质量的好坏,更不用说如何修正方向。有时,他们甚至不知该从何入手。

这与我的预期相悖。和2022年的许多人一样,我曾认为生成式AI能帮助资浅员工突破能力局限,如同一次突如其来的能力注入。然而现实却相反:这些工具放大了已有的判断力,而非弥补判断力的缺失。

如今我意识到,这个微观案例恰恰解释了当前各行业管理者面对AI辅助产出时普遍存在的不安:尽管成果生成迅速、形式精美,却难以评估其质量,更遑论据此采取行动。

当我们深入观察人们如何借助AI工具取得优质成果时,就会发现这种现象的合理性——这需要持续评估AI产出并进行深思熟虑的迭代。你提出指令、获得结果、评估效果、调整指令,在此过程中不断微调方向。

从历史经验看,这种判断力并非来自使用AI本身,而是源于亲身完成过类似工作的经验。正是在那些缓慢、不完美且需为结果承担实际责任的重复实践中,人的判断力才得以淬炼。

这就引出了一个无论企业是否意识到、都正在面临的悖论:AI既增加了对判断力的需求,同时也在侵蚀孕育判断力的经验土壤。

哈佛商学院的艾米·埃德蒙森和罗盛咨询的托马斯·查莫罗-普雷姆日奇曾警告过完全用AI替代初级岗位的风险。本文聚焦的则是当初级岗位保留但其培养价值发生根本性变化时会出现的问题。

首先,我需要完整阐述“判断力”的内涵。

何为判断力?

判断力是领导者常提及却鲜少明确定义的特质。它常是晋升的关键门槛,且随着职级升高愈发重要。对此我深有体会:既曾需要展现判断力以获得晋升,后来也需在评估他人时考察这项能力。

判断力,可被定义为一种在既有规则无法提供明确指引时,仍能作出明智决策的能力。这种能力包括:识别情境的关键要素、权衡相互冲突的优先级与利弊、预见决策可能引发的后果,并在不确定性的环境下,主动抉择何时需要为结果承担责任。

这一定义意味着,当领导者谈论判断力时,通常融合了多种表现形式。实践中至少体现为以下五类:

评估判断:辨别事物优劣、强弱、恰当与否的能力

情境判断:把握通用规则的适用边界,识别需要特例处理的情境

取舍判断:在没有明确正确选项时权衡竞争目标的能力

预见判断:在结果显现前洞察潜在连锁反应的能力

担当判断:在不确定性中决定何时需要个人承担责任与风险,而非回避或上交决策

以新产品上市决策为例:两位领导者可能审阅相同数据、理解相同风险、认同预期收益,但一人拍板推进而另一人犹豫不决。差异正源于判断力——前者认为供应链风险可控,延迟六个月将让竞争对手抢占过多先机;后者则担忧上市时的质量问题可能损害品牌信任,而修复这种信任需要数年时间。两者皆非错误,只是基于多年观察类似决策形成的认知模式,对相同取舍做出了不同权衡。

这些判断力通常无法直接传授,而是从工作本身的结构中自然涌现。

传统判断力的形成土壤

在多数组织里,判断力是工作架构衍生的副产品。以专业服务机构为例:初级顾问需承担调研、信息整合、模型构建、报告撰写等任务。根据我的亲身经历,初期尝试总存在缺陷与不足,但在获得管理者反馈指导、持续改进的过程中,我逐渐培养出对高质量成果的鉴别力。

这种模式在咨询公司的每个层级——从分析师到经理再到合伙人——不断重演。随着职级提升,责任性质转向项目领导、团队建设、客户关系维护与组织发展,但判断力的形成路径始终相似:承担超越现有能力的新责任,在试错中获得反馈,从经验中学习成长。

这种模式并不限于专业服务领域,而是各类组织培养人才的通用路径。试举两个AI已产生深远影响的领域为例:

产品管理领域

传统上,初级产品经理通过撰写原始需求文档、明确功能取舍、为开发优先级决策辩护、观察上线后效果来锤炼判断力。而今AI可在数分钟内生成产品规格、用户故事、路线图等所有内容。新一代产品经理往往只需审阅这些产出,而非亲手创造。

市场营销领域

广告文案、视觉素材生成、营销活动策划等传统营销工作,现已能通过AI快速批量生成(意味着几乎有无穷选项可供选择)。随着模型学习企业历史营销方案、战略文档及竞品动态,其产出质量持续提升。这使得新一代初级营销人员未必需要亲历创作过程的艰难磨砺,却也因此错过了传统的成长必修课。

这个培养体系有两个关键特征:实际决策权与重复实践。没有什么比承担决策后果更能锤炼判断力。重复实践同样至关重要——当需要评估他人工作时,你已亲历过多次挣扎求索的过程。

这套体系效率并不突出,但确实有效。然而其建立在一个前提上:人类将继续执行那些培养判断力的核心任务。在AI时代,这个前提已然动摇。

悖论:缺失经验的判断力

这导致企业正面临一个悖论:要有效使用AI,人们需要对当前任务具备判断力;但随着AI承担更多工作,曾经孕育判断力的实践经验却开始消逝。

对个人而言,这种转变体现在工作体验与技能发展方式上。AI产出快速且充满自信语气,审阅优化这些产出可能让人产生深度参与的错觉。但由于人们现在是对生成答案作出反应,而非从零创造,其认知过程与培养的相关技能已截然不同。

对组织整体而言,这种影响会持续放大。初级岗位失去那些原本作为训练场的杂乱而关键的成长型任务,导致中层管理者需要督导他们从未完全掌握的工作。高层领导者则发现,越来越少人能在不确定性中胜任需要真正判断力的岗位。

哈佛商业评论一篇关于AI生成“工作垃圾”的文章描述了这种动态的连锁反应:那些外表光鲜却缺乏实质内容或情境支撑的产出,因越来越少人能识别其局限或予以修正,最终通过引发混乱与返工侵蚀整体效率。

为何仅有“人类参与”仍然不够?

面对自动化过度的隐忧,许多企业确立了一条看似稳妥的原则:确保人类始终处于决策闭环之中。这体现为对特定产出或决策的正式审查等多种形式,虽是降低风险的重要原则,却未能解决培养判断力土壤这一深层问题。

其他常见的AI保障措施虽具价值,却可能无意中加剧此问题。以升级上报机制为例:这类规则要求初级员工将模糊或高风险案例移交上级决策。短期虽保障了质量,却也教会新员工将不确定性视为需要转移而非克服的难题。长此以往,组织将越来越依赖日益缩减的经验决策者群体,而培养应对模糊情境能力的渠道却在收窄。

问题的核心在于:大多数“人类参与”机制的设计初衷,是优化对流程的控制与已知风险的管理,而非促进参与闭环中人类自身的成长。

典型案例:编辑判断力

要理解其中的利害关系,不妨审视专业杂志编辑的工作。

当稿件送至编辑案头,他们需要从流畅度、论证、证据、语调、受众契合度、原创性、实用价值等多维度评估质量。这些判断往往同步进行,同时权衡整体质量是否达到出版标准。若决定采用,编辑需指出各个维度如何改进才能达标,并标记需要补充的内容。

这种判断力源自多年处理粗糙稿件、提供反馈、与作者反复沟通、决定刊发内容,更重要的是观察读者反应的过程。优秀编辑通常自身就是卓越的写作者,经历自己作品被编辑的过程也助力了判断力培养。虽然部分专业知识可提炼为明确规则,但更多时候它属于隐性知识,运用时甚至如同直觉。

现在试想让缺乏此背景者评估同一份稿件。即使此人聪明勤奋、能识别表面问题,仍将难以把握真正的关键所在。他们无法判断稿件中的缺陷是否可修正,也不理解该文章如何融入整体编辑规划。其反馈往往趋于保守或方向偏差——根本原因在于缺乏提供有效反馈所需的经验。

这个差距正是所有组织在AI时代面临的困境。由于人工智能能够高速生成看似专业的跨领域内容,其人类使用者实则处于"经验缺失的编辑"境地——他们不得不在缺乏必要实践经验的前提下,对AI产出进行审查与评估,而这些实践原本正是形成深度编辑判断力的基石。

领导者忽视的组织风险

孤立地看,判断力退化似乎只是技能问题或短期阵痛。但从系统视角审视,这实则构成领导力与继任风险。

组织需要持续补充能在不确定性中做出稳健决策的人才。传统上,这种补充通过人员在岗位流动中积累日趋重要的决策经验而实现。

随着AI自动化那些塑造能力的基础工作,越来越少人能接触曾经作为判断力训练场的场景。结果判断力将集中于更小范围的高层领导者群体——他们的经验形成于自动化普及之前。最终,随着新一代领导者普遍缺乏在日益常见的新颖或模糊情境下的关键决策能力,人才梯队将逐渐萎缩。

此外还存在更微妙的文化影响。当人们在职业生涯早期就被剥夺此处所述的担当体验,其学习重心将自然转向如何向上管理,而非学习如何决策。

这些是AI带来的真实风险,且不同于其他常被提及的AI相关风险。

破局之道:重建判断力培育土壤

当前组织面临的挑战在于:如何在AI时代重新设计工作,使判断力仍能持续发展。一个有效的切入点是提出诊断性问题,揭示特定岗位的决策发生点及其所需知识技能:

真正做出重要决策的是谁?谁只是在审阅他人或机器塑造的成果?

人们在何处体验自身选择(包括失败)带来的后续影响?

哪些岗位失去了曾经随时间培养判断力的重复性、低风险任务?

人们在何处被保护免于面对模糊性,而非被要求与之角力?

这些问题有助于我们辨识:哪些环节仍保留着判断力形成的土壤,而哪些环节已被AI技术割裂了人与关键决策场景的联系。针对后者,必须构建替代性的能力培养机制。

虽然相关机制仍在积极探索中,但我们可以从那些获取真实经验成本过高或风险过大的领域(如医疗、军事)汲取灵感。这些领域长期通过案例研习、模拟训练、随判断力验证逐级增加责任、结构化事后复盘等机制,有意识地构建判断力。

AI时代的核心挑战,是如何持续培养出具备判断力的人。

关键词:#AI

大卫·S·邓肯(David S. Duncan )| 文

大卫·S·邓肯是咨询公司Disruptive Edge合伙人,专长为增长战略、创新与AI应用咨询。

周强 | 编校

本文来自微信公众号“哈佛商业评论”(ID:hbrchinese),作者:HBR-China,36氪经授权发布。

+1
23

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

暴力拆除旧习惯,AI 购物第一单

1小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业