哪有什么“算法对立”,你只是想在“茧房”里躲一躲
信息隔阂,在日常生活中随处可见。家族群里,长辈转发的“千滚水致癌”的养生帖无人理睬,你分享的网络热梗“没出息”也没人接茬。朋友聚餐时聊起了国际热点,一个人说着“是这么回事”,另一个人一脸懵,“我刷到的完全是另一种说法”。
如今,“算法离间关系”的讨论在中文社交网络持续发酵,从亲密关系到公共讨论,算法似乎成了所有隔阂与对立的 “罪魁祸首”。
2024年底,“脑腐”(brain rot)当选牛津大学出版社年度词汇。国内营销号迅速发挥想象力,将其与短视频、算法深度绑定,还新造了个“傻子共振”的概念,渲染集体焦虑,并在今年持续发酵。但这场焦虑的核心,终究绕不开那个社交网络上的高频词汇“信息茧房”。
(图/《凡人歌》)
我们默认了算法将自己困在同质化信息中,最终导致观点极化、关系疏离。可事实果真如此吗?这个被视为洪水猛兽的“信息茧房”真的存在吗?并且真的是算法一手造成的吗?
国内外学界对这个议题做过实证研究,得出反常识的结论。研究人员用模拟实验,发现“算法推荐比我们自主选择的更多样”,且大样本的用户调研数据也显示“信息茧房”被夸大了。
对比前算法时代,我们一天接触的信息容量,古代人可能一年才接触到。我们有时甚至需要主动为自己营造一个“茧房”,好去应对这个信息过载的时代。
你可能只是想在“茧房”里躲一躲
社交媒体上,有年轻人分享了自己对“信息茧房”的认知转变:最初,他担心长期“信息偏食”会削弱自己的理解力,为此焦虑不已。但随着生活阅历的增加,他逐渐意识到,这种担忧更像是“预支未来的恐惧”。“我们一直活在现实里,现实是流动的、交织的,我们摄入的信息量远远构不成茧房。”这番感悟,背后隐隐约约透露着有关“茧房”的真相。
11月7日,深圳大学城市传播创新研究中心发布了《短视频用户的算法实践与“破茧”报告》(简称深大《报告》),为我们提供了新的数据支撑。调研团队对1215名用户进行了问卷调查,对20余位用户进行深度访谈,以及模拟了不同用户行为的“代理实验”。结果显示,大多数用户认可推荐内容的多样性,并表示算法能帮助他们拓展视野。
(图/《短视频用户的算法实践与“破茧”报告》)
用户对算法推荐的态度,是趋于理性的:62.5%的用户认为其“有利有弊,取决于平台和个人如何使用”,25.3%的用户持正面态度,仅有8.6%的用户认为其“会限制视野”。通过这些数据,可以看出所谓的“受困于信息茧房”,实际上存在一定程度的夸大。
从行为学的角度来看,当现实的重压让人喘不过气时,主动选择熟悉、轻松的内容,更像是一种人类自我保护的生存策略。如今,在工作压力剧增、社交成本上升的当下,大多数人每天都在与工资、房租、内耗、孤独为伴。结束一天的疲惫工作后,我们早已没有多余的心力,去理解一个截然不同的世界,去共情那些与自己毫无交集的人生。此刻,手机的一方屏幕,是灵魂忙碌一天后的歇脚地。对于算法推送的高密度信息,人们只想快快划过去,看点让人放松的,躲在“信息舒适区”里喘息一会儿。
有网友说得直白:“我不是不知道世界有复杂的一面,只是在下班地铁上,我不想再看那些让人焦虑的分析,只想刷几个做饭视频、宠物日常,让自己放松一下。”这种选择无关算法的“操控”,而是现实压力下的必然取舍。人们主动选择了轻松内容,却把算法推荐当成“困住我们”的罪魁祸首。
(图/《欢乐颂5》)
当我们讨论“信息茧房”的危害时,我们其实忽略了一个重要前提:只有当你拥有足够的时间、精力和资源去探索广阔世界时,才有可能担心自己被信息局限。然而现实却是,我们的活动范围可能仅限于家与公司之间的两点一线,社交圈子固定在同事、亲友之间,职业选择被学历、地域、家庭背景所限制。这些现实中的“社交茧房”,远比算法推荐的内容更能决定我们的认知边界。事实上,算法推荐的内容,远比我们的社交圈子更加多样。
当我们谈论“信息茧房 时,我们或许是在借一个技术名词,来言说一种更深层的社会性无力感——我们很难改变自己的职业和生活处境,时刻焦虑错过重要信息,被时代抛下,于是将这种无力感投射到算法身上,指责技术限制了我们的视野。奈何技术不会说话,也就成了大家的“出气筒”。
不过,需要我们清楚的是,将矛头全部指向技术,其实恰恰回避了那些真实信息环境的复杂性,也抹杀了我们与之从容相处的可能。说到底,算法只是一种人类处理信息的工具,工具是途径不是目的,决定最终抵达何处的掌舵人,仍是我们自己。
算法,背了太多它不该背的锅
“信息茧房”是算法造成的吗?要厘清算法与“信息茧房”的关系,首先需要打破营销号构建的认知误区。
关于网络上对“脑腐”的渲染,实际上牛津大学出版社的原始定义,并未特指任何单一媒介产品,更未将其与算法直接挂钩。但在国内舆论场中,这一概念被简化为“刷短视频=大脑退化”,算法则成了背后的“始作俑者”。
在社交媒体时代,我们或许都能明显感受到,网络上的冲突往往要比日常生活中激烈、极端,那些观念的隔阂、立场的分歧,使得网络上滋生了很多“喷子”“键盘侠”,造成了所谓的“极化现象”。这甚至已经成为了一个全球性的问题。
许知远对话罗振宇。(图/《十三邀》第五季)
有西方学者曾提出,数字技术在为个人带来便利的定制化信息的同时,也使得个体生活在自己营造的“回音室”(echo chambers)中。由于接触不到对立的信息与观点,人们就会将己方观点合理化,变得越来越极端。在这些理论中,中国人最熟悉的就是哈佛法学家凯斯·桑斯坦在《网络共和国》中提出的“信息茧房”概念。
实际上,“回音室”效应的支持者,都有一个未经证明的预设,那就是只要让人们接触多样化的信息,所谓的“信息茧房”就会消除,并且减少极化。但是事实真是如此吗?一位网友的言论就很耐人寻味:“我也会主动尝试走出所谓的信息茧房,但是看了眼对立面的信息,发现还是自己的茧房里舒适”。
(图/《欢乐颂5》)
美国杜克大学社会学家、“政治极化实验室”教授克里斯·贝尔,也曾在其著作《打破社交媒体棱镜》中提出了这个问题:如果个体在社交媒体上接触了对立的观点,是否会有助于他们反思自己的观点,从而变得不那么极端化?极化究竟是群体交流的必然导向,还是在某种技术条件下才会出现的情境性的结果?
中国传播学学者刘海龙在《打破社交媒体棱镜》这本书的序言中,进一步揭示了有关“极化”的真相:走出信息茧房,接触对立观点,并不会让人变得温和理性,反而可能使其立场更极端。
(图/《打破社交媒体棱镜》【美】克里斯·贝尔)
真实的研究数据,也戳破了“算法导致观点极化”的简单论断。阿姆斯特丹大学的研究团队曾做过一项极具说服力的实验:他们用大语言模型生成500个“人格化”聊天机器人,搭建了一个无广告、无个性化推荐算法的极简社交平台,仅保留发帖、转帖和关注三种基础功能。
经过5万次自由互动后,实验出现了耐人寻味的结果:立场接近的机器人自动互相关注,而不同立场几乎零交集,中间派则被边缘化;少数“大V”账号垄断了大部分粉丝和转帖,注意力分布严重不均;立场越鲜明甚至越极端的内容,传播速度越快、范围越广。
这项实验证明,在没有算法的情况下,“回音室”、影响力集中、极端声音放大等乱象依然存在,都是一些根植于人类社交行为的天然倾向,而并非由推荐算法导致的观点极化。
(图/《玫瑰的故事》)
在刘海龙看来,社交媒体对人的最大异化,不是制造了信息壁垒,而是扭曲了自我身份认同——极端立场能带来强烈的归属感、被认同感,甚至潜在的地位与收入,这种诱惑让部分人主动拥抱对立,与我们潜意识里认为的被动困于“茧房”并不一样。
国内舆论场将“脑腐”“观点极化”简单归咎于算法,本质上是偷换了概念,制造科技恐慌。那些被热议的“傻子共振”现象,更是颠倒了因果——现实社会的政治分歧与阶层差异,甚至还有人类自身认知的局限性,才是观点分裂的根源。而算法,更多地只是客观呈现了这种分裂,不是制造了它。
总的来看,人类天生就倾向于寻找观点相似的群体,这一社交本能远早于算法出现。在没有互联网的年代,地域、阶层、职业早已为人们构建了天然的“信息圈层”。将现实中的圈层固化、观点对立全部归咎于算法,本质上是为复杂的社会问题寻找一个简单的“技术替罪羊”,却回避了背后更深层的社会结构与人性本质。
你比你想象中更主动
记者观察到,在深大《报告》中,还有一组耐人寻味的调查数据:
面对与自己截然相反的观点时,高达86.6%的用户会选择观看、评论、互动;
65.2%的用户会“在内容单调时主动尝试新事物”;
超过60%的用户有主动寻求不同信息、对抗视野变窄的意愿和行为,比如“通过不同平台获取信息,完整了解事件经过”;
75.6%的用户相信能通过搜索、点赞、评论等行为影响算法。
这些数据充分说明,用户并非被动困于“信息茧房”,而是“主动的信息管理者”。他们会通过正向开拓(主动搜索、跨平台查证)与反向过滤(标记不感兴趣、屏蔽内容)相结合的方式,积极建构自己的信息环境。
就像其中一位受访者所说:“我知道点赞某种内容会被持续推荐,所以现在会有意识地控制点赞行为,看完喜欢的内容直接划走,只为了让算法给我推更多元的内容。”这一论述非常重要,说明了用户远比我们想象中更主动。
(图/《玫瑰的故事》)
很多人或许还是疑惑,明明自己已经在很主动地筛选内容,而且也能在算法推荐中看到大量不一样的内容,为什么还是觉得被“信息茧房”困住了?对此,暨南大学新闻与传播学院的师文和李锦辉两位教授,在他们的虚拟代理测试ABT研究中,给出了答案。
该研究以国内某算法短视频平台为数据来源,探讨了算法与用户行为交互下新闻多样性的动态变化。研究结果表明,相较于无算法的随机推荐情况,算法驱动的个性化新闻消费呈现出更高的新闻类别多样性,算法推荐比用户的自主选择更有效地促进了我们可以接触不同主题的新闻内容。
(图/《玫瑰的故事》)
如此看来,算法在设计时就已经包含了对抗“茧房”的机制。算法的推荐多样性,甚至比“关闭个性化推荐”时更高。我们之所以会觉得仍被算法所困,本质上是人的注意力机制和记忆偏好在“作祟”。就像我们前面讲到的,极端内容因其刺激性获得了“认知特权”,更容易被我们记住并放大;而那些平淡的日常内容(做饭、风景、科普),虽然占据了推荐流的大部分,却也容易被我们自动过滤、遗忘。
当我们抱怨“算法制造群体对立”时,我们自身的注意力偏好,其实在筛选并放大个别极端信号,算法只是忠实地执行了推荐逻辑。不过,有人或许还想问,难道个体的意志与算法的主导性之间不存在矛盾吗?算法要多大程度尊重用户的个人意志?试想一下,如果算法放弃了主导性,或许也会使得想要封闭自己的用户,陷入“茧房”的深处。
当然,这可能是一个关于“生命如何存在”的哲学问题。但回到我们个体的真实感受,对待算法,其实一个平和的心态更重要。真正的信息素养,或许始于意识到自己的认知偏见,并主动去关注那些“不刺激”却构成世界基石的普通内容。说得通俗易懂些,算法只是一个工具,一面镜子。镜子照出什么,完全取决于站在镜前的人,以及塑造这个人的真实生活。
我们或许无法立刻推开生活的重压,但至少可以先放下对技术的无端恐慌。不必焦虑于 “ 信息茧房 ” ,因为我们真正的 “ 战场 ” ,在信息之外,在每一天具体而微的生活之中。与其担心被算法驯化,不如思考如何在我们能够 得着的地方,撬开一丝改变的可能。
本文来自微信公众号 “新周刊”(ID:new-weekly),作者:段念,36氪经授权发布。















