如何应对不同类型的生成式人工智能用户

王建峰·2025年12月19日 11:52
如何应对不同类型的生成式人工智能用户

我最近参与了一些关于为终端用户设计基于大型语言模型工具的有趣讨论,其中一个重要的产品设计问题是“人们对人工智能了解多少?”这很重要,因为正如任何产品设计师都会告诉你的,你需要了解用户,才能成功为他们打造可用的产品。想象一下,如果你在搭建一个网站,假设所有访客都会流利使用普通话,所以你用普通话写了网站,但结果发现你的用户全是西班牙语。就是这样,因为虽然你的网站可能很棒,但你构建的假设是致命的错误,结果大大降低了它的成功可能性。

所以,当我们为用户构建基于LLM的工具时,我们必须退一步,看看这些用户如何看待LLM。例如:

  • 他们可能对大型语言模型的工作原理一无所知
  • 他们可能没有意识到,已经在使用的工具基础上有LLM支撑
  • 他们可能对LLM的能力抱有不切实际的期望,因为他们有过非常强大功能代
  • 理的经验
  • 他们可能对LLM技术抱有不信任或敌意
  • 他们对LLM所说内容的信任或信心可能因具体的过去经验而有所不同
  • 他们可能期待确定性的结果,尽管大型语言模型不提供确定性

用户研究是产品设计中极其重要的部分,我认为在构建基于大型语言模型的工具时跳过这一步是个大错误。我们不能假设我们知道特定受众过去如何体验过大型语言模型,尤其不能假设我们自己的经历代表他们的经历。

用户类别

大概有 这四个类别:

无意识使用者(不知道/不在乎)

一个不怎么思考人工智能、也不认为它与自己生活相关的用户属于这一类。他

们自然对底层技术了解有限,也不会有太多好奇心去了解更多。

回避型用户(人工智能很危险)

这个用户对人工智能整体持负面看法,会带着高度怀疑和不信任来解决这个问

题。对于这个用户来说,任何AI产品都可能对品牌关系产生非常不利的影响。

人工智能爱好者(人工智能总是有益的)

这些用户对人工智能抱有很高的期望——他们对人工智能充满热情,但期望可

能不切实际。那些期望AI接管所有繁琐工作或能完美准确回答任何问题的用

户,可能适合这里。

知情的人工智能用户(赋能)

该用户具有现实的视角,且很可能具备较高的信息素养水平。他们可能采用“信

任但核实”策略,对LLM的引用和证据非常重要。正如作者所指出的,这个用户

只有在AI对特定任务有用时才会调用它。

基于这个框架,我认为过于乐观和过于悲观的观点往往都基于对技术知识的缺失,但它们代表的用户类型根本不同。信息水平和情感(包括力量和定性)的结合共同构成了用户画像。我的解读与作者所说的有些不同,作者认为热衷者信息丰富,因为我实际上认为对人工智能能力的不切实际期待往往源于知识不足或信息消费失衡。

这让我们在设计新的大型语言模型解决方案时有许多思考空间。有时,产品开发者会陷入误以为信息水平是唯一轴心的陷阱,忽视了社会对这项技术的普遍看法差异很大,这同样会影响用户接收和体验这些产品的感受。

为什么会这样

值得思考一下,为什么会有这么多用户的画像,尤其是情感层面。我们经常使用的许多其他技术并不引发那么多极化。大型语言模型和其他生成式人工智能对我们来说相对较新,这无疑是问题的一部分,但生成式人工智能的质性方面尤其独特,可能影响人们的反应方式。

非确定性

随着计算在过去几十年成为我们日常生活的一部分,我们能够依赖一定程度的可重复性。当你点击键盘或按下按钮时,计算机的响应每次大致相同。这赋予了一种可信感,我们知道只要学会正确的模式以实现目标,就能依赖这些模式保持一致。生成式人工智能打破了这一契约,因为输出具有非确定性。普通普通用户使用技术几乎没有经验,因为相同的按键或请求会返回意料之外且总是不同的结果,这可以理解地破坏了他们本可能拥有的信任。非确定性当然有充分的理由,一旦你理解了技术,这只是技术的一个特性,但在信息较少的阶段可能会带来问题。

不可理解性

这其实就是“黑匣子”的另一种说法。生成式人工智能的神经网络本质是,即使是我们这些直接使用该技术的人,也无法完全解释模型为何“会这样”。我们无法整合并解释网络每一层中每个神经元的权重,因为这太复杂,变量太多。当然,有许多有用的可解释人工智能解决方案可以帮助我们理解影响单一预测的杠杆,但对这些技术的工作原理进行更广泛的解释并不现实。这意味着我们必须接受某种程度的不可知性,而对科学家和好奇的普通人来说,这都非常难以接受。

自治权

越来越多地推动生成式人工智能成为半自主智能体的一部分,这似乎促使我们让这些工具在越来越少的监督和人类用户控制下运行。在某些情况下,这非常有用,但也可能带来焦虑。鉴于我们已经知道这些工具是非确定性的,且无法在广义上解释,自主性可能会显得危险。如果我们并不总是知道模型会做什么,也无法完全理解它为何会这样做,一些用户可能会说,这种技术在没有监督的情况下运行并不安全。我们一直在开发评估和测试策略,试图防止不良行为,但一定的风险不可避免,正如任何概率性技术一样。另一方面,生成式人工智能的部分自主性可能导致用户根本无法识别AI参与特定任务的情况。它可以在幕后默默运作,用户可能对其存在毫无察觉。这也是更大关注领域的一部分,即AI输出与人类有机生成的材料无法区分。

这对产品意味着什么

当然,这并不意味着构建涉及生成式人工智能的产品和工具是不可能的。这意味着,正如我常说的,我们应该认真审视生成式人工智能是否适合我们面前的问题或任务,并确保我们既考虑了风险,也考虑了可能的回报。这始终是第一步——确保AI是正确的选择,并且你愿意接受使用它所带来的风险。

之后,我给产品设计师的建议如下:

进行严格的用户调研。了解上述用户配置文件在用户群中的分布情况,并规划你构建的产品如何容纳这些分布。如果你有相当一部分回避型用户,规划一个信息策略来促进采用,并考虑缓慢推广,避免给用户群体带来冲击。另一方面,如果你有很多发烧友用户,务必明确你的工具能提供的功能范围,避免收到“你的AI很烂”的反应。如果人们期待生成式AI带来神奇的效果,而你无法提供,因为你必须遵守重要的安全、保障和功能限制,那么这将成为用户体验的问题。

为用户构建:这听起来似乎很显而易见,但本质上我想说的是,用户调研应深刻影响不仅影响生成式AI产品的外观和体验,还应影响其实际的构建和功能。你应该以基于证据的角度来面对工程任务,了解产品需要具备什么能力,以及用户可能采取的不同方式。

优先考虑培训。正如我之前提到的,无论用户是正面还是负面, 培训 用户了解你所提供的解决方案都非常重要。有时我们以为人们“自己会明白”,可以跳过这一步,但这是错误的。你必须现实地设定期望,并提前回答可能来自怀疑受众的问题,以确保用户体验积极。

不要强求。最近我们发现,过去我们愉快使用的软件产品正在添加生成式人工智能功能,并将其变成强制要求。你应该做好准备,面对某些用户群体,无论多小,都可能拒绝使用生成式人工智能工具。这可能是因为批评情绪、安全法规,或仅仅是缺乏兴趣,但尊重这一点是维护和保护组织良好声誉及与用户关系的正确选择。如果你的解决方案有用、有价值、经过充分测试且沟通良好,你或许能随着时间推移提升该工具的采用率,但强加给人们无济于事。

小结

归根结底,这些对各种技术产品设计工作都是很好的建议。然而,我想强调生成式人工智能对用户与技术互动方式的巨大变化,以及它对我们期望的重大转变。因此,在推出此类产品之前,我们比以往任何时候都更需要仔细审视用户及其起点。正如许多组织和公司通过痛苦的经历学到的,新产品是一个留下深刻印象的机会,但这种印象既可能糟糕,也可能非常好。你给人留下深刻印象的机会很大,但同样重要的是你破坏与用户关系、摧毁他们对你的信任,并为自己制造严肃的危机控制工作。所以,开始时要小心谨慎,尽情 的 认真!

本文来自微信公众号“数据驱动智能”(ID:Data_0101),作者:晓晓,36氪经授权发布。

+1
6

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

葛卫东投资51WORLD,看好物理AI赛道。

4小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业