过度依赖AI的组织,正在丧失三大核心能力
AI可以提升组织的绩效,但前提是你要清楚它的局限性。它无法通过经验积累专业知识,无法承担道德责任,无法建立信任、勇气或共同目标。这些仍然是人类独有的功能。如果你让AI排挤掉这些能力,你的组织可能在技术上先进,但在竞争中却很脆弱。要避免这种情况,就需要在应用AI时,清醒地认识到是什么让你的组织具有竞争力。
AI常被推销给高管们,说它是一种“力量倍增器”,能提升员工绩效。然而,有一个重大但鲜被强调的弊端:AI可能会消解组织独特的DNA——它可能固守通用标准,从而削弱了本欲被其优化的组织。在这种情况下,组织变得更加自动化,却适应性降低;更加依赖数据,却缺乏智慧;效率提高了,但在员工和客户眼中却失去了合理性。
在本文中,我们将阐述AI削弱组织能力的三种方式,并说明首席执行官和高级管理人员应如何解决这些问题。
员工思维退化
AI系统制造出一种强大的假象。其输出流畅、自信,且往往看似合理。这种流畅性催生了认知依赖,人们不再像以前那样深入思考,因为机器似乎胜任一切。
对企业而言,陷阱在于当员工过度依赖AI起草分析报告、诊断问题或提出解决方案时,他们自身的技能就会退化。企业失去了通过经验锤炼判断力的能力,特别是那种在实践中通过师徒相授传递的隐性知识。
对组织而言,长期风险虽不明显却很严重。尽管企业在技术上可能看似先进,但却可能悄然丧失创新、应对危机和竞争所需的专业知识。
领导者可以采取的措施:明确关键的人类能力
在将AI引入任何核心工作流程之前,要明确你的组织为了保持竞争力,绝不能失去哪些人类能力。某些技能并非自然形成,包括在不确定情况下的判断力、系统思维、道德升级以及解释性推理,即从既定战略的角度审视机遇与挑战的能力。这些技能只有通过实践才能培养和维持。
以一家澳大利亚电信运营商为例,我们称其为克雷斯顿电信(Creston Telecom)。该公司在利用AI解决城市密度与农村覆盖之间的战略权衡时,致力于培养和保持这些技能。战略规划主管何塞注意到,中层管理人员越来越依赖AI生成的情景分析,而非自行制定战略建议。他告诉我们:“我们的规划团队变成了算法的执行者。他们会提出三个由AI生成的方案,但无法解释为何其中一个更优。”
克雷斯顿电信的应对措施是设立“无AI战略会议”,跨职能团队必须首先仅依靠自身的判断力和经验来处理战略问题。只有在记录下他们的推理过程后,才允许参考AI工具。该公司还让高潜力的经理人员轮岗,参加为期六个月的“战略驻留”项目,直接与何塞合作处理复杂决策。
这些举措确保了克雷斯顿电信的战略决策能力得以保留。这涉及识别跨市场的潜在模式、厘清必要的利益相关方权衡,并制定长期战略规划。即使AI处理常规分析,这些关键职能仍由人类掌控。
规则被系统掩盖
在每个组织中,都有一些作为规则体现的道德选择,比如谁获得哪些资源、谁被视为成功、谁的主张被接受或拒绝。传统上,这些规则是可见的、可质疑的,并可进行辩论。这就是企业维护合理性并适应不断变化环境的方式。
这些决策的关键在于,它们通过一种旨在揭示冲突、促进审议并明确责任的组织结构来运作。例如,信贷委员会不仅批准贷款,还会就标准展开辩论、挑战假设并发展贷款理念。晋升委员会不仅评估绩效,还会商讨什么构成功绩以及如何权衡各种情况。合规部门不仅仅是走过场,还会解读模糊的规则。
AI改变了这种组织动态,将这些通常带有主观性的决策嵌入技术系统中。曾经需要明确审议的过程如今自动进行,而且往往规模大、速度快。决策的道德内涵隐藏在模型、分数和优化功能之后。用算法输出取代人类判断,会使组织面临一种风险,即当系统、政策或激励措施出现偏差时,失去纠正方向的能力。
领导者可以采取的措施:保护产生专业知识的组织结构
组织许多最有价值的能力源自既定层级结构中所蕴含的组织知识,而非个人表现。明确绘制这些依存关系,并记录知识如何从一个层级传递到下一个层级,是评估AI工具是否使复杂决策过程同质化的基本步骤。
以一家拥有40多年历史、资产达300亿美元的美国中型地区银行(我们称之为皮埃蒙特地区银行)为例,看看它如何在发现其信贷委员会决策日趋自动化后应对此问题。该委员会由高级贷款专员组成,负责审查约15%的贷款申请,但严重依赖AI的建议。为应对这一情况,该行现在增设了季度“信贷标准圆桌会议”,委员会在会上明确辩论并记录不断演变的贷款标准。以前委员会问的是“这份申请是否符合我们的标准?”,而现在圆桌会议问的是“我们的标准还是否正确?”——这是一个此前从未有专门场所进行的审议功能。
此外,正如该行人力资源总监简所解释的:“我们创建了一种全新的学徒制度。现在要求初级分析师每季度轮岗到委员会实习,不仅学习如何解读分数,还要学习如何质疑分数。”这种人才培养渠道以前从未有过,这是一项有目的的机构性投资,旨在培养下一代的判断力,而不仅仅是对现有做法的调整。简继续说道:“银行还让初级分析师与高级贷款专员搭档处理复杂案例,要求共同签字,从而积极投资于做出这些判断所需的组织技能。”
这些特意设计的“摩擦点”虽会略微减缓个别交易的速度,但重建了悄然消失的战略决策能力和相互问责机制。皮埃蒙特银行现在将这些受保护的协作空间视为不可协商的基础设施,而非可有可无的奢侈品。这保留了历来为该行带来信贷专业知识和竞争优势的审议结构。
社会联系被削弱
企业不仅仅是规则和工作流程的系统,也是建立在信任、相互理解和共同目标基础上的社会结构。组织文化的这些特质源自人际互动,这些互动有时是合作性的,有时是对抗性的。AI从两个方面威胁到这种结构。
首先,它取代了曾经需要人们共同解决问题的互动。人们不再就各种选项展开辩论、协商权衡或共同诊断失败原因,而是越来越多地借助提供私人答案的个性化工具。
其次,当决策看似来自不透明的算法时,传统的权威来源——首席执行官、经理、专业人士——会失去可信度。员工难以理解谁该负责以及决策依据是什么。
领导者可以采取的措施:重建被AI削弱的社群
组织的能力得以延续,是因为人们通过持续互动形成了共同理解。AI常常以个体化、由机器介导的工作流程取代这些互动。不要让这种情况在不知不觉中发生。
以一家英国中型广告公司为例,我们称其为布莱特维尤创意公司。尽管广告活动达到了绩效指标,但客户却开始终止合同。该公司采用了AI工具进行受众定位、创意优化和活动管理。活动运作高效,但某些东西出了问题。
首席执行官劳伦斯在客户流失面谈中发现了这个问题:“客户说他们感觉像是在和自动售货机合作,而不是和创意伙伴合作。我们的客户团队会在客户会议上展示AI生成的计划,但当客户问‘为什么针对我们品牌采用这种方法?’时,团队无法清晰地阐述观点。他们学会了操作工具,却没有培养出创意判断力。”
布莱特维尤的解决方案侧重于通过展现专业知识来重建战略决策能力。它制定了一项政策,禁止在面向客户的演示中使用AI生成的内容。团队必须创建原创的战略叙述,解释他们的思路。该机构还重新调整了客户关系,为每个客户指定一名“战略负责人”,由资深人员担任,其职责是挑战AI的输出,并倡导算法可能忽略的创意方法。这些负责人成为了组织专业知识的代表,重建了客户的信心,让他们相信是真正的判断力而非纯粹的自动化在指导工作。
……
AI可以提升组织的绩效,但前提是你要清楚它的局限性。它无法通过经验积累专业知识,无法承担道德责任,无法建立信任、勇气或共同目标。这些仍然是人类独有的功能。如果你让AI排挤掉这些能力,你的组织可能在技术上先进,但在竞争中却很脆弱。要避免这种情况,就需要在应用AI时,清醒地认识到是什么让你的组织具有竞争力。你的未来取决于利用机器来增强人类的判断力,同时坚决保护任何算法都无法取代的人类投入。
关键词:#AI
格雷厄姆·肯尼(Graham Kenny)、甘娜·波格雷布娜(Ganna Pogrebna)| 文
格雷厄姆·肯尼是Strategic Factors 公司的首席执行官,著有《战略发现》(Strategy Discovery)。他是战略和绩效衡量领域公认的专家,帮助私营、公共和非营利部门的经理、高管和董事会创建成功的组织。他曾在美国和加拿大的大学担任管理学教授。甘娜·波格雷布娜是贝尔法斯特女王大学的大卫·特林布尔教席教授。作为行为AI和新兴技术领域的教授及高管,她与企业合作,以改善客户体验、加强战略决策和管理技术风险。
周强 | 编校
本文来自微信公众号“哈佛商业评论”(ID:hbrchinese),作者:HBR-China,36氪经授权发布。















