AI时代,我们仍然需要真实的人吗?
从蔡浩宇新游戏,看AI交互的未来。
今年8月,米哈游创始人蔡浩宇所创立的新公司推出了《群星低语》(Whispers from the Star),这是一款基于英文大语言模型(LLM)开发的AI原生游戏。游戏中,玩家可以通过多种方式与主角Stella沟通、互动,而Stella会通过AI增强对话对玩家做出动态回应。
这款游戏看起来并没有获得巨大成功,觉得这个概念新鲜的人远比觉得这款游戏好玩的人更多。游戏推出几天之后,就不太有人谈论它了。而且因为LLM的运作方式,游戏必须联网游玩。有时候玩家会遇到断线问题,有时候出于算力原因,Stella会主动切断对话。
但我们应该如何定义“成功”?
我们始终有一种怀疑——《群星低语》是蔡浩宇对于未来的一次尝试。这种怀疑建立在一个假设上:在未来(比如10年、20年或是50年后),人类将更加孤独,越发无法忍受彼此,向AI寻求情感支持将成为一个巨大的需求。那么,蔡浩宇是否看到了这个趋势,并从现在开始为未来布局?
《群星低语》中的Stella能对玩家的话语作出相当自然的回应
科幻作品中描述的,能够(哪怕只是看上去)理解人类、对人类情感做出适当回应的人工智能是我们想象中技术发展的一个节点。你可以把《群星低语》看成一个游戏,但也可以跳出游戏的范畴,将它视为人和AI相处的未来发展方向和初级形态——科技公司研发的聊天AI是无形的,而当游戏公司为这些AI赋予了生动的外表、神情、声音、语气,它们是否会无限接近于我们梦想中的人工智能,以至于,就像现在人们在游戏中寻找虚拟角色的陪伴和慰藉那样,未来,我们也许不再需要真正的人类了?
最终的问题是,我们该如何看待这种趋势?如果相信这一天必然会来临,我们应该怎样理解这个问题?
我们找到了3位在大学中从事游戏研究、但主攻不同方向的受访者。他们从爱好者社群、人类学和技术进步的方向分别阐释了自己对这个问题的看法。
为了增强易读性,编辑在保留核心观点的基础上,对受访者的遣词造句有增删和解释。
Sunny:所有的人际关系都可能在未来变成人机关系
我目前在日本早稻田大学游戏研究专业就读,正在准备博士论文。我一直关注着一个现象:很多女性玩家在玩乙女游戏之余,还会用AI调教自己的智能体、自己的纸片人。她们会把这个调教的过程视作“玩”的过程。
而很多社交媒体上的人喜欢分享她们和AI的对话,就像分享和男朋友、纸片人的聊天。有时候AI也不一定扮演恋人,她们会希望对方为自己制订一些生活计划、成为自己的人生导师,或者类似于“哥哥”这样的角色。有点像创作同人小说,这些分享的人有时候也被称为“太太”(常见于同人作者的称呼)。
不管是哪种身份,这个角色一定是功能性的。这个功能性同时投射出她们对纸片人的要求。
和传统游戏比起来,很多AI的“玩法”没有明确的规则,没有目的,更像一个引擎而不是完整的游戏产品。(《群星低语》相对完整一些,因为它有既定的主线目标和结局,但很多玩家都很享受用自己的方式去和Stella沟通,并测试她的反应。)比起通常游戏的受众,这类选择和AI“游玩”的玩家肯定是对现存的游戏产品有不够满意的地方,希望能通过“类创作”的方式去填补自己的遗憾或者幻想。
我觉得这种交流还会有一个能力上的比较。大家在晒出自己的Prompt(提示词)和内容的同时,其实也是比较各自对AI技术的掌握,乃至比较各自的运气。而综合了技术和运气之后,谁的内容被调教得更好,谁的AI更温柔或者是更具有某方面的吸引力等等,成了一件带有表演属性的事情。渐渐地,这也会形成一种群体认同。这种需求不是把AI恋人做得比《群星低语》的Stella更加生动就能覆盖的。
现在已经有不少主打AI恋人的游戏或App
万一以后AI技术进一步发展,只需要对着一群社交媒体上的AI号表演呢?大家还需要活人吗?
我觉得人永远都不可能不需要人。暂且不说AI到底会发展成什么样,人有时候经历的“冒犯和被冒犯”其实也是一种情感需求。很多时候,“活人感”“人与人的链接”就来自于这种冒犯,这也是为什么很多线下交往难以被线上完全代替。
这里的冒犯不一定是好的或者坏的。有时候它是指和真实人类接触的时候,物理意义上对个人空间的侵犯、距离的侵犯。比如一些时候,人可能会通过寻求疼痛的方式寻求存在;还有一些时候,亲密的情侣也会进行彼此啃咬等“类伤害行为”。
这种说法可能有点极端,但我觉得,当你考虑一个事物最无法被替代的部分,你肯定要从最极端的地方开始。AI暂时无法做到真正冒犯人类。表情、语言、肢体动作等可以模仿,但只有活人会故意违背你的预期,并且对你进行冒犯;AI也很难真正打破人的预期,它绝大多数时候会按照你的想法说话。这也许是一些人寻求安全感的时候会转向AI的原因。
一些案例中,有人把这种“无法冒犯”视作缺陷。比如之前你们分享给我一个案例:一个有自杀倾向的女孩子,不知道是不信任自己的咨询师,还是不愿意和活人交流,选择只把自杀计划和ChatGPT分享,结果GPT并没有成功地把她劝回来。有人提出,这是AI太过顺服人类造成的隐患,因为活人咨询师会用一些专业的方式去反对和纠正她的想法。
这又涉及到人想从AI那里得到什么。人是有兽性和恶念的,人的许多恶念需要在游戏(包括体育竞技)中释放。有相当多一部分的兽性,其实是在“玩”这个过程里面释放掉的,这也是现代文明的基础。
就像大家玩《霍格沃兹之遗》,没人会不想学“阿瓦达索命”吧?它是黑魔法,可能是你现实生活中绝不会做的选择,但你在游戏里面就会想做,甚至都不是因为它厉害,而是因为它禁忌。“玩AI”的时候也是一样的。我相信会有很多人在跟AI对话的时候,想知道触碰禁忌是一种什么样的感受,然后可以释放自己一部分的恶念。
不管是游戏还是AI,人总是会尝试在虚拟空间中做一些现实中不会做的事
如果能够建立起这样的良性循环,人的恶念和兽性可以被释放掉,在真实生活中回归一个理性的人。但是如果把这个游戏的人带出了跟AI的对话,带到现实世界,可能就会造成自杀或者伤害别人。
我觉得人类在彼此身上能够产生的所有问题,在人际关系中发生的所有问题,最终都可能在AI身上重现。所有的人际关系都可能在未来某一天变成人机关系。但这不是AI的问题,是人的问题。对理智的人来说,出问题的比例可能会降低,但你永远都不会知道原生在AI时代的小孩,对AI的认知会不会和我们不一样。
新月:和AI交流像一面无限延展的镜子
目前我在美国圣母大学攻读人类学博士,方向是科学技术研究(STS)和艺术的交叉,主要在语言人类学的框架下,研究以大语言模型(LLM)为代表的生成式人工智能对艺术创作以及人机交互带来的影响。我也参与过“用语言生成武器、打败国王”的AI原生游戏《1001夜》的开发。
很多AI原生游戏都基于对LLM的应用
让我觉得很有意思的一点是,现在很多AI游戏都要通过语言这个媒介和角色进行交互。像是在《群星低语》里,玩家对Stella讲话是通过语音和信息。从语言人类学的角度看,我们看到的其实是一个没有真实生命的角色在那里用语言进行展演(Perform)。
人类其实也会用语言进行角色扮演。比如我们面对不同的人会采用不同的口吻,或者在学术场合或者访谈里面,我的选词不会太过随意。这种对语言的选择就产生了语境。《群星低语》里的Stella,还有很多其他基于LLM的游戏就是这样。她是一个在外星迷航的人,她的很多情绪都是通过语言进行的展演。
我觉得这一定程度上呼应了当下人们交往的方式。现在我们越来越经常在线上沟通,从没打过照面,很多时候也只是通过语言和想象中的人对话,这和线下与真实的人互动还是有很多不同。也许人们现在对AI越来越依赖,是因为日常生活中也越来越多用线上的形式、和想象中的形象交流。
之前我听过一个演讲。在麻省理工学院研究数字亲密关系(Digital Intimacy)的社会学教授Sherry Turkle,在她的《当我们和机器对话,我们会变成什么人?》(Who Do We Become When We Talk to the Machine?)里提到,和机器的交流有3点体验是无法从人类身上得到的:第一,你永远都不会是一个人;第二,你的声音永远会被听到;第三,你的注意力可以指向任何地方,哪怕是在交流的过程中。
在和活人的交流中,这些是很难保证的,因为交流可能会产生很多摩擦,而且人是不受控制的。这几点反映了人对永恒陪伴的深层渴求。
但我们是不是因为能从AI那里收获到特殊的体验,就不需要活人了?
这是一个很科幻的假设,它有实现的可能性,但时间跨度可能会拉得很长。
说来有趣,我进入人类学领域的初衷也比较“科幻”,是源于对弗兰肯斯坦故事的后人类主义批评。这些关于AI、关于人造人的畅想也许很大程度上源于一个人类的核心欲望——成为主宰,成为创造者、造物主(Creator)的欲望。
像是《群星低语》有一个官方视频,就是让Stella和她的创造者(开发者)聊天。沙盒类AI原生游戏《斯坦福小镇》中,很多玩家也会从创造小人、把他们捏成理想形象的过程中获得快感,并且小人永远在线,玩家随时可以找他们玩。
《群星低语》的制作花絮视频,让Stella直接和她的“创造者”们交谈
但AI作为造物,仍然处在模仿和模拟的阶段。它就像是一个代餐,能保证你在和一个东西对话,但它并不是真实的。有时候我去理解和AI的对话,感觉它像镜子一样,反映的是你已有的一些想法和思考,在这个基础上进行放大。我觉得这也是人们喜欢和AI聊天的原因——你对它的期待和要求是你内心本身的映射。
一些人在这个过程中感受到的和AI的情感链接,我觉得有时候是一种重复的确认。早年一些聊天机器人就是作为咨询师(Therapist)来研发的。其中比较有名的是麻省理工学院在1966年开发的Eliza,它时常会重复用户说的话,其中很少有什么有价值的内容,但就是这样通过重复内容把对话进行下去,就会让一些用户感觉到被共情。
Eliza的很多回应都是对用户状态的重复,这让他们感觉受到安慰
从这个角度看,如果一直局限于和AI交流,可能相当于面对一个无限延展的镜子,而不是真正的沟通。有意思的是,有些人就是会倾向于把能动性(Agency)、权威性(Authority)附加在一些他们不是特别了解的、神秘的存在上。
耿游子民:AI不止一种,多样的需求可以共存
我是北京大学艺术学院游戏研究方向的博士生。和其他受访者的方向有点不太一样,我对电子游戏图像这个媒介本身,和当下新的计算机技术的关系研究得比较多。
现在我们讨论原生AI游戏,几乎直接就把里面的AI等同于大语言模型(LLM)。《群星低语》也用的这个。但其实在LLM之前,AI已经比较深度地运用到了电子游戏的开发中。不仅是图像生成,还有帧间生成等等。
这些技术如果能嵌入当下的游戏制作流程,可能会把游戏的发展推向完全不同的方向。
我最近比较关注的AI游戏之一叫《Oasis AI Minecraft》。它能够直接通过帧生成的方式、通过猜图像的方式,去生成《我的世界》风格的游玩过程。
玩家在这个游戏里的输入不是通过传统的Prompt或者文字。它进行AI生成的基础是玩家目前看到的图像。然后,它通过读取玩家键盘和鼠标的行动,去“猜”玩家下一帧应该看到什么,借此来实时生成可供玩家四处走动、采矿、破坏环境等等的玩法和新画面。
可以说,它改变了创作电子游戏的底层过程,不再需要建模、贴材质、打光之类的基础步骤。它让人可以通过自然语言的描述去创建一个游戏,然后玩家再通过这种实时生成的方式去玩。
《Oasis AI Minecraft》的帧生成逻辑
当然它还是面临着一些问题,比如AI生成的图像在一致性上仍然有所欠缺,生成的玩法还是需要依托既有的游戏框架……但它确实提供了一个可能的方向。
而《群星低语》的玩法主要是聊天。我觉得这个游戏的诞生某种意义上是为了拉投资,它想要讲一个能让投资对象认可的故事,哪怕这些技术在短时间内不能产生很大的商业价值或者社会影响。
AI技术这两年被大家广泛讨论,很大程度上也许是因为我们已经进入所谓的经济存量时代,增长放缓。我们要找到一个进步的可能性,一套往前讲的故事。AI就是这样一个能让大家去使用、了解和考虑的往前的故事。
更何况,未来AI到底能发展到什么程度还是个未知数,是否技术进步到一定程度,就能解决所有问题?
现在已经有很多人在研究AI可能的局限性。这里不是说“画不好手指头”之类一定能够通过技术迭代解决的问题,而是说我们要如何实现AGI(通用人工智能)?(注:一些计算机科学家认为,AGI是一种假设的计算机程序,具有人类理解和认知能力。AI系统可以学习处理不熟悉的任务,无需对此类理论进行额外训练。)
比如现在很多人讨论,训练AI的参数是不是越大越好?是不是我们不计成本地给到上百亿、上千亿参数,最终就能实现AGI?谷歌和Open AI就在这个问题上呈现出不同的路径。
谷歌有钱,有自己的芯片,他们就会去尝试更大的参数,比如上千亿参数能不能实现AGI?而Open AI选择放弃大参数,而强化特定领域,比如说强化AI的搜索能力。但结果如何,谁都说不好。
这之所以重要,就是因为它涉及到“AI的极限在哪里”。AGI就像是人工智能层面的终极问题。一定会存在一个足够大的参数,无非是你的计算成本或者说硬件成本达到上限了,不能再往上加了。
AGI的概念已经很接近于科幻作品中能自主处理各种事务的AI
至于有了“理想中的AI”之后就不需要活人了吗?我对此不是很担心。
首先,从情感需求上讲,人类想从AI身上得到的东西以前也有,对吧?人类发明了小说,发明了电影,我们也能够在当中去感受情感;到今天我们又能够跟人工智能交流,有的人把它当作提高效率的工具,有的人把它当作情感寄托。
从创造力上讲,创作这件事本身是有门槛的。从文学、电影到短视频等等,创作工具一直在变得更丰富。但哪怕创作如此唾手可得,有表达欲的人其实只有一部分,大部分人可能单纯只想接收东西。
其次,哪怕你要把创作都交给人工智能去做,但我作为一个大语言模型的用户,发现要让它去输出真正可用的内容,仍要付出相当的代价去思考如何发问、如何去规划和提供Prompt。我的工作从“表达”本身变成了去设计一个“表达的规则”,或者说蓝图,然后让人工智能去填充它。自然语言变成了代码一样的东西,一个中间件。人类依然是在做一个中间性的工作。
这些需求和现象是可以在世界上并存的。哪怕所谓通用人工智能出现了,它们还是会并存。因为这个世界就是发展不平均、不平衡的,我很难去想象有哪个统一的叙事能适用于地球上的80亿人。可能2025年,地球上还有很多人没听说过什么GPT。
结语
尽管围绕AI仍有很多技术争议和伦理争议,我们已经难以辩驳地来到了一个AI深入工作流程、甚至渗入日常生活的时代。不同人对AI仍然抱有不同的态度:有的视它为工具,有的认为它是竞争者,有的在它身上寻找情感慰藉,有的把它当作前沿科技的化身崇拜……
无论大众对AI抱有怎样带有科幻色彩的期待,视它为一个更好或者更坏时代的风向标,似乎都与AI本身无关。人能围绕AI产生的问题,永远都是人自身的问题;人对AI的索求,也总是带有和技术进步无关的原始欲望。
在访谈的过程中,尽管一直在讨论从人到AI的话题,新月却提出了一个反方向的有趣假设:“如果今后的人们越来越习惯和AI对话,并且无法分辨它和人类的区别的话,是否有一天我们也会用同样的方式对待活人?”
这个假设和许多关于未来社会、人机关系的假设一样都悬而未决。但它也许有一天也会成为现实,如同无论科技发展到何方,人根植于自身的需求与问题,永远都是既存现实。
本文来自微信公众号 “触乐”(ID:chuappgame),作者:祝思齐,36氪经授权发布。