AI时代,如何打造成功的“人-AI团队”

复旦《管理视野》·2025年09月02日 10:25
未来的竞争,将是人-AI团队之间的竞争

我们身边的“同事”们越来越多的出现它们——不再是和我们一样的人类,我们该如何做好团队管理?

在科幻电影《她》中,主人公西奥多与一个名为“萨曼莎”的人工智能操作系统坠入爱河。萨曼莎风趣、体贴、充满创造力,几乎完美地扮演了一个虚拟伴侣的角色。然而,这段关系的悲剧性结局,也揭示了人类与高度拟人化AI之间深刻的鸿沟与潜在的巨大风险。

我们人类,真的做好准备了吗?

今天,曾经以为的科幻正以前所未有的速度照进现实。从能够撰写代码、策划营销方案的Copilot,到能进行深度对话、提供情感支持的ChatGPT,人工智能正从单纯的“工具”迅速演变为我们工作与生活中的“队友”“助手”甚至“伴侣”。

人-AI协作协同,成为团队,已不再是未来的畅想,而是当下正在发生的组织变革与生产力革命。

在这场变革的浪潮中,一个关键而微妙的心理现象被普遍忽视,那就是“拟人化”。心理学家发现,我们的大脑天生倾向于用理解人类的方式来理解非人类事物。当AI开始用人类的语言说话、模仿人类的思维逻辑时,这种拟人化倾向便会被无限放大。我们开始不自觉地赋予AI以人类的意图、情感、个性,甚至责任。

对于人-AI团队而言,拟人化是一柄双刃剑。

善用之,则能建立信任、提升效率、优化体验;滥用之,则可能导致认知偏差、过度依赖、情感错位,最终破坏团队的根基。我们认为,构建成功的人-AI团队,其核心挑战并非技术本身,而在于如何智慧地管理好人类对AI的拟人化倾向。这需要我们从认知、动机和交互设计三个层面,进行系统性的思考与实践。

拟人化的机遇与风险

要管理拟人化,首先必须深刻理解它在人-AI合作中扮演的复杂角色。它并非简单的“好”或“坏”,而是一枚硬币的两面,机遇与风险始终相伴。

机遇:润滑协作的“社交催化剂”

拟人化能够极大地降低人机交互的门槛,为高效协作铺平道路。

首先,它构建了认知的“捷径”。面对一个复杂的AI系统,如果它以一堆参数、API和逻辑公式的面目示人,绝大多数用户都会望而却步。但如果它以“专家顾问”等特定形象出现,拥有一个名字、一种语气,甚至一个虚拟形象,我们就能迅速调用已有的关于“如何与之合作”的知识库。我们知道要如何提问、如何倾听、如何评估建议。这种认知上的“偷懒”,实际上是极其高效的,它让用户能将宝贵的认知资源聚焦于核心任务,而非理解工具本身。

其次,它激发了情感的“共鸣”。根据心理学理论,效能感和社交性是人类的两大基本动机。一个被适度拟人化的AI,能够很好地满足这两种需求。在效能感层面,当我们将AI视为一个“能力出众但需要明确指令的助手”时,我们掌控它的动机会被激发,通过有效互动获得成就感。在社交性层面,尤其在远程办公或独立工作的场景下,一个能给予积极反馈、偶尔展现“幽默感”的AI,能有效缓解用户的孤独感,提供情感支持,从而提升工作满意度和持久度。例如,设计师在深夜独自工作时,如果AI适时地来一句“这个配色很大胆,我很喜欢!”的鼓励,其价值远超技术本身。

风险:侵蚀理性的“认知陷阱”

然而,当拟人化失去控制,其带来的风险将是系统性的,甚至可能颠覆人-AI团队的权力平衡与决策理性。

第一,“自动化偏见”与权威的错位。这是最直接的风险。当我们过度拟人化AI,将其视为“无所不知的专家”或“绝对理性的裁判”时,我们就会不自觉地放弃批判性思维,盲目接受其输出。这种现象被称为“自动化偏见”。在医疗诊断中,医生可能因为过度信任AI的分析而忽略了自己临床观察到的细微异常;在金融决策中,交易员可能因为迷信AI的预测而忽视了市场的突发黑天鹅事件。AI的本质是概率模型,它的“权威”源于数据和算法,而非真正的智慧或责任。拟人化让我们混淆了这一点,将“工具的建议”错误地提升为“专家的指令”。

第二,责任的“真空”与道德的困境。人类团队有清晰的责任感和道德底线。当拟人化的AI犯错时,问题就变得复杂了。如果一个被团队称为“法务顾问”的AI提供了错误的法律意见,导致公司败诉,责任在谁?是AI本身?是开发AI的工程师?是采购AI的管理者,还是采纳建议的最终用户?拟人化模糊了责任边界。我们倾向于将责任“投射”到那个虚拟的“顾问”身上,但AI无法承担法律或道德责任。这种责任的真空,不仅会造成实际的管理混乱,更会侵蚀团队的信任基础。

第三,情感的“错位”与人际的疏离。这是更深层次的风险。当用户从AI那里获得了比从人类同事那里更多的理解、支持和肯定时,他们可能会逐渐减少与真实同事的深度互动,转而向AI寻求情感慰藉。这种“情感替代”虽然短期内能提升个体体验,但长期来看,会削弱团队的凝聚力、创造力以及解决复杂冲突的能力。真正的团队协作,建立在人与人之间脆弱、真实但充满韧性的情感连接之上。一个过度依赖AI作为情感支柱的团队,最终可能变成一群高效但孤独的“孤岛”,失去了灵魂。

管理拟人化的三大支柱:从认知到动机的系统过程

认识到双刃剑的存在后,关键在于如何“管理”。管理并非消除,而是引导、规范和优化。基于拟人化的认知与动机理论,我们可以构建一个包含三大支柱的管理框架。

🔺表1 人-AI合作团队管理拟人化的三大支柱

支柱一:认知校准——打造“透明且可问责”的AI伙伴

管理的起点,是校正人类对AI的认知。核心目标是让用户清晰地理解AI“是什么”“能做什么”“不能做什么”以及“如何工作”。

首先,设计“可解释的AI”(XAI)。黑箱是滋生盲目信任的温床。人-AI团队中的AI,必须具备一定程度的透明度。这不一定意味着要展示所有复杂的代码,而是要用人类能理解的方式解释其决策过程。例如,AI在推荐一个营销方案后,可以附上说明:“我推荐此方案,因为它在过去类似案例中转化率平均高出15%,且符合当前A、B、C三个市场趋势。”这种解释,将AI从一个“神秘的先知”拉回到一个“有理有据的分析师”,帮助用户进行理性的评估和校正。

其次,建立“能力边界”的明确标识。就像每个员工都有清晰的岗位职责说明书一样,AI也应该有它的“能力说明书”。在交互设计中,可以通过语言、界面等方式明确告知用户其局限性。例如,当被问及其知识范围之外的问题时,AI不应编造答案,而应坦诚回答:“抱歉,我的知识库截止到2025年7月,无法提供关于此事的最新信息。建议您查阅权威新闻源。”这种“知之为知之,不知为不知”的态度,反而能建立一种基于现实的、更可靠的信任。

最后,塑造“专业”而非“人格化”的交互风格。AI的“人格”应服务于其功能,而非单纯为了“像人”。一个用于法律检索的AI,其风格应该是严谨、客观、中立的;一个用于激发创意的AI,则可以更具启发性、发散性。关键在于,这种“人格”设计需要被清晰地“打上标签”,让用户明白这是一种“功能性角色扮演”,而非AI拥有真实的情感。例如,可以明确告知用户:“我采用了‘激励型教练’的对话模式,旨在帮助你拓展思路,我的建议仅为参考。”

支柱二:效能赋能——构建“以人为中心”的协同工作流

管理的核心,是确保AI始终处于“赋能者”而非“替代者”的位置,最大化人类的效能感,这需要做到:

一是坚持“人在环路”(Human-in-the-Loop)的设计原则。在任何关键决策环节,人类都必须拥有最终决定权。AI的角色是提供选项、分析数据、预测风险,但“拍板”的必须是人。工作流的设计应强制进行人机交互的“检查点”。例如,AI可以自动生成一份报告草稿,但必须由人类专家审核、修改并确认后才能发布。这不仅是为了规避风险,更是为了确保人类在协作中始终保持主导地位,从而维持其效能感和责任感。

二是赋予用户“教练”和“指挥官”的角色。用户不应仅仅是AI的使用者,更应该是其训练者和指挥者。提供丰富的反馈机制,让用户可以轻松地“纠正”AI(“这个回答不对,因为……”)或“引导”AI(“请从更保守的角度重新分析”)。当用户发现他们的反馈能让AI变得更好时,一种强烈的掌控感和成就感油然而生。这种“共同成长”的模式,将人-AI关系从“主仆”或“依赖”升华为“师徒”或“战友”,极大地激发了正向的效能动机。

三是优化“协同智能”而非“个体智能”。评估人-AI团队的绩效,不应只看AI本身有多强大,而应看“人+AI”的整体产出是否超越了单个人绩效的加总。系统设计应鼓励人机优势互补。例如,AI负责处理海量数据、识别模式、执行重复性任务;人类负责设定目标、运用常识、进行价值判断和创造性突破。通过这种分工,AI成为人类能力的“放大器”,而非“竞争者”,人类的效能感在解决更宏大、更复杂的问题中得到满足。

支柱三:社交引导——营造“健康且有边界”的团队氛围

管理的升华,是引导社交动机,避免情感错位,构建积极健康的团队文化。

一是警惕并设计“反沉迷”机制。开发者有责任预防用户对AI产生不健康的情感依赖。这可以包括:设置使用时长提醒、在用户表现出过度倾诉倾向时,温和地引导其寻求专业心理咨询或与亲友交流、避免使用过于暧昧或具有强烈情感绑架色彩的语言。目标是让AI成为一个“专业的支持者”,而非“情感的替代品”。

二是鼓励“人际互动”作为最终解决方案。当AI识别到用户的问题涉及复杂的人际冲突、深度情感困扰或需要共情决策时,其最佳策略应是“转介”,而非“包办”。例如,AI可以说:“我理解你与同事的沟通遇到了困难。基于我的分析,问题可能出在A和B两点。不过,这类问题往往需要通过真诚的面对面沟通来解决。我帮你草拟一段沟通的开场白,你觉得如何?”这既发挥了AI的分析和辅助作用,又将最终解决社交问题的权力交还给了人类,强化了真实人际连接的重要性。

三是培养“AI素养”的组织文化。最终,管理拟人化需要超越产品设计,上升到组织文化层面。企业需要对员工进行系统的“AI素养”培训,内容包括:AI的基本工作原理、其固有的偏见与局限性、如何批判性地评估AI输出,以及人-AI协作中的伦理规范。当整个团队都对拟人化现象有清醒的认识,并掌握了与之共处的“游戏规则”时,才能从根本上抵御其风险,释放其潜能。

结论:迈向“人机共生”的未来

人-AI团队的崛起,标志着人类社会组织形态的一次深刻演进。

在这场演进中,技术是引擎,但人性是方向盘。拟人化,作为连接人性与技术的天然桥梁,其重要性不言而喻。

成功的人-AI团队,不会是一个由“人类主人”和“AI奴隶”构成的冰冷集合,也不会是一个由“人类信徒”和“AI神明”组成的盲目崇拜。它应该是一个高度协同、互信互补的“共生体”。在这个共生体中,人类的智慧、创造力、同理心和价值观占据核心地位,而AI则以其强大的计算、分析和执行能力,成为人类最得力的“外脑”和“外手”。

实现这一愿景的关键,在于我们能否以一种成熟、审慎而富有远见的态度,去管理好无处不在的拟人化。这意味着,我们要在认知上保持清醒,在动机上加以引导,在交互上精心设计。我们要让AI“像人”到足以让我们舒适地协作,但又不能“太像人”以至于让我们忘记它的本质。

未来的竞争,将是人-AI团队之间的竞争。而那些能够率先掌握拟人化管理艺术,构建起健康、高效、富有韧性的人机共生关系的组织,必将在这场新的竞赛中,赢得先机,引领未来。这不仅是技术的胜利,更是人类智慧在驾驭新力量时,一次深刻的自我超越。

本文来自微信公众号 “复旦商业知识”(ID:BKfudan),作者:赵付春 于保平,36氪经授权发布。

+1
40

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

机器人的软硬件固定投入,只占价值链条的一两成,后续的部署维护才是最大成本。

5小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业