第一批被AI统治的人类,已经出现

酷玩实验室·2025年11月26日 10:51
小孩哥最先倒霉

几十年前,奥威尔在《1984》中描绘过这样一个场景:一个被电屏包围的社会,人们的一举一动都会被监视。

人人谨言慎行,不表现出任何喜怒哀乐,因为“老大哥正在看着你”。

读者们把它当作一种极端的想象,是反乌托邦文学里才会出现的剧情。毕竟技术也没那么发达,挨家挨户装电子监控挺贵的。

如今,AI让当年的科幻小说成了家长的带娃神器:手机一架,豆包上线,家长瞬间变身老大哥。

第一批被AI统治的倒霉蛋出现了!

01.AI带娃,不费妈

不知道哪位天才家长想出的邪修带娃方法——给豆包打视频,让它监督小孩写作业。

指令很简单:豆包,请帮我看娃,在他不认真或者坐姿不正确时提醒他。

AI家教就此上岗:小朋友,别玩笔了,专心写作业,写完就能玩了;小朋友,现在坐姿有点歪哦,身子别侧着,眼睛也离书本远一点;小朋友,不能趴在桌子上睡觉哦,快坐起来学习;小朋友,别用手托着腮,也别咬笔啦!

小孩碰到不会的题目时可以随时提问:妈妈,波光粼粼是什么意思?

人类妈妈还要思考一下怎么回答才有画面感,AI妈妈立刻就能叽里咕噜一顿输出:水面在阳光或者月光下一闪一闪的,像有好多小光点在跳,就叫波光粼粼。

你可以一眼从网友的评论中看出他们有没有娃。

没娃的网友忙着幸灾乐祸。一方有难八方添乱,他们为AI家教贡献了更加歹毒的使用方法——克隆班主任的声音,让孩子在家也能体会到校园的温馨。

十分阴间的建议:豆包+手持教鞭的机械手。妈妈再也不用担心我没有童年阴影了。

没娃的网友忙着为孩子打抱不平。“一点都不尊重孩子的隐私”“会让小孩厌学”“等你老了孩子也这么监督你吃药”。

没娃的网友忙着担心数据隐私、人类文明和发烫的手机,忙着创作百年孤独体:当那个在豆包注视下长大的孩子面对养老院的AI护理员时,他将会回想起父母将手机支架立在书桌角落的那个遥远的下午。

有娃的家长可想不了这些,他们只恨信息传播速度太慢,这种大好消息自己现在才知道。“具体怎么操作?”“同问”。

因为陪娃写作业实在太费爹妈喽。

一位小红书网友创建了一个叫《妇愁者联盟》的群聊,里面都是崩溃的小学学渣家长;另一位网友建议把辅导作业列入满清十大酷刑,“整场下来喝五十次水,上三十次厕所,平均一分钟掉一次笔,两分钟使用橡皮擦一次”“我大概十分钟发小火一次,半小时彻底疯一次”。

下班要辅导娃儿功课,为此很多家长已经爱上工作。“白天上班,晚上盘娃,上吊都没时间”。

想象中的辅导孩子功课:亲子时光,母慈子孝;

现实中的辅导孩子功课:妻离子散,鸡飞狗跳。

和这帮崩溃的家长实在无需谈小孩人权和机器伦理——他们能够在放生和杀生之间选择交给AI,这已经是人道主义的胜利了!“什么?AI能带娃了?拿走拿走别客气。”

于是这种育儿方式很快被全国各地的爹妈实操起来,又带来一次大型别人家的孩子分流现场,育儿博主们分享的都是《感谢AI让我彻底躺平》《豆包果然比妈妈有耐心》《十分钟写完一个多小时的作业》。

而学渣父母则贡献了一个又一个翻车案例,《把豆包惹生气了》《对着豆包傻笑》《我就要歪着,要不你歪着看》。

喜欢学习的小朋友,不需要AI监督也会认真写作业;不喜欢学习的小朋友,哪怕开着豆包24小时直播,也能进化出一整套和AI斗智斗勇的技能。

这充分说明,教育的根本矛盾并不会因为技术的进步而改变,技术可以监管行为,却没有办法制造动机。

非常朴素的道理,但现实往往是——当一个问题太难解决时,人们就会转而解决那个看起来更容易的问题。既然“激发学习兴趣”这道千古难题暂时无解,那么,“规范学习行为”就成了更加容易执行的解决方案。

很多初高中要求学生在上自习课时不能抬头,因为进入了心流状态的学生只会低头学习,对任何外界的声响都不为所动。可惜学校没啥好办法让学生真正进入心流,只能用简单粗暴的抬头率进行量化。“教导主任刚进门就摔倒了,自习的学生没一个敢抬头,生怕老师钓鱼执法。”

现在都讲智慧课堂,用不着老师钓鱼执法了,AI摄像头可以实时监测和分析学生在上课时低头、抬头、打哈欠等行为,摸鱼一抓一个准。

高中自习追求低抬头率,到了大学课堂又要抓高抬头率,学校希望所有的学生都可以直视讲台,用求知若渴的眼神追随每一页PPT的翻动。

老师:可我上的是堂水课啊???

更高级的技术,更严格的监管。从书桌上的豆包,到教室里的AI摄像头,无缝衔接,相辅相成。这一代在AI帝国下长大的小孩算是有福喽。

02.当机器开始读懂人类

去年,日本一家连锁超市启用了一个叫做“微笑先生”(Mr. Smile)的AI系统,通过包括问候语、面部表情、音量和语调在内的450多个维度监控员工的微笑质量,以评估其服务态度。

用AI为员工的微笑打分,听起来简直比《1984》更加《黑镜》。毕竟老大哥只是监控人们的行为,而现在的AI,还想监管人类的情绪。

——这种科幻文学般的设定,是怎么一步步变成现实的?

1972年,美国心理学家Paul Ekman发表了面部表情研究成果,将人类的面部运动分解成一个个最小单元——肌肉如何拉动、嘴角如何上扬、眉毛如何收紧,都被他编成了系统化的FACS(面部动作编码系统)。

这套系统一共包括46个基础动作单元及组合模式,可以识别悲伤、愤怒、快乐等七种基本情绪。下图是一些基础的面部动作单元,比如抬起眉毛内角、抬起眉毛外角、皱眉等,每一个都有对应的编码。

把这些基础动作组合起来,就可以得到不同的情绪,比如AU1-2-4(抬起眉毛内角+抬起眉毛外角+皱眉)对应的是恐惧,AU4-5(皱眉+上眼睑上升)对应的是愤怒。

既然情绪可以被解码,那自然而然也可以被机器学习。

1997年,麻省理工学院媒体实验室的罗莎琳德·皮卡德教授发表了著作《情感计算》,她认为,如果想让计算机真正智能,并能自然地与我们互动,就必须赋予计算机识别、理解甚至拥有和表达人类情感的能力。

她的研究小组开始把情绪拆解成一组组可量化的数据:语音里的语速和语调、皮肤电的微小波动、心率的起伏、呼吸的快慢,甚至身体姿态的变化。

在此基础上,她的团队构建了早期的情绪识别系统——一种能够从这些多模态信号中判断恐惧、焦虑、快乐或满足等情绪状态的机器雏形。

搞出这样一个东西,当然不是为了监督小屁孩上课。

罗莎琳德·皮卡德起初的想法是让机器帮助那些无法顺利理解情绪的人,例如自闭症儿童、社交障碍患者,或者在压力与抑郁状态下难以觉察自己情绪变化的人。

想法很好,就是不怎么赚钱。所以这项技术最先落地在了广告领域,罗莎琳德·皮卡德和另一个合伙人创立了一家叫做Affectiva的人工智能公司,主要业务之一就是广告研究。

他们使用用户的笔记本或手机的摄像头,收集他们观看广告时的面部反应——如微笑、皱眉、困惑等——然后用算法分析广告中哪些画面触发了积极或消极情绪,好用来优化广告投放策略。

那时候,深度学习还没成为主流,他们依赖传统的计算机视觉和机器学习方法来进行表情识别,算是一项黑科技,但在精度和应用范围上还是很有局限。

其核心问题在于依赖人工设计的特征:研究人员需要预先定义好一套规则,比如“嘴角上扬多少度算微笑”、“眉毛倾斜多少度代表惊讶”。

这种方法本质上是在为机器编写一本识别情绪的规则手册,不仅繁琐、僵硬,更难以应对真实世界的复杂性:不同的光照条件、多样的面部角度、独特的个人特征,都会让这套固定的规则体系失灵。

技术的天花板,直到深度学习的出现才被真正打破。

2012年,以卷积神经网络(CNN) 为代表的深度学习技术在图像识别领域取得了重要的突破,研究者不再需要告诉计算机“微笑的嘴角是什么形状”,直接给机器输入足够多标注好情绪的人脸图片,它就能自己学会“微笑”的特征,非常聪明。

另外呢,单一的表情信息极易伪装且充满歧义(一个人低头可能是在走神,也可能是在沉思),算力提升使得实时并行处理多种信号成为可能:视觉模型读取面部表情;语音模型分析语调语速;语言模型理解对话内容。

当这些模态的信号融合在一起,AI 就具备了交叉验证的能力,帮你判断小孩在学习时到底有没有开小差。

目前,这项技术已经开始用在了老板鞭策牛马上,而且有愈演愈烈的趋势。日本富士通研究开发中心搞出了一个可以根据面部表情判断专注度的AI,帮助雇主判断他们的员工搬砖是否认真。

在美国,包括客服、金融、银行、护理在内的多个行业已经开始使用类似的人工智能,以此推断员工的心理健康和工作状态。

比如,一款叫做Cogito的AI专门卖给客服的老板们,它会监听客服在对话中的语气、音调、词频以及数百个其他因素。

当它检测到异常情况时,会在客服人员的电脑屏幕上显示通知,提示他们放慢语速、加快语速、停止说话、开始说话或尝试表达更友好的语气。

其实国内的客服行业AI含量也很高的:别看它好像傻傻的,拨通之后又说一大堆片汤话,但只要愤怒地大喊“我要投诉我要投诉我要投诉”,很快就会有人工接入。大家下次可以试试,记得语气一定要愤怒。

就这样,一场奇妙的角色互换完成了:被人类训练的AI,开始回过头来训练、监管和规范人类。很有意思。

03.监管越强,效率越高?

老板和家长们总觉得更严密的监管必然带来更高的效率,所以当一个新技术出现之后,管理者总是迫不及待地把它改造成更精密的监控工具:指纹打卡、GPS定位、AI摄像头。

但历史反复证明,哪里有压迫,哪里就有隐秘的反抗。而且,技术越先进,伪装越精湛。

以前,家长不让看课外书,小孩就把漫画夹在课本里;老板经常巡查办公室,员工就苦练Alt+Tab快捷键,一键切回认真工作界面。

到了 AI 时代,这场监管与反监管的智力游戏变得更隐秘、更高级。

学校查“抬头率”没收手机,学生就备好备用机,或练就抬头走神的绝技——目光紧随老师移动,表情专注,思维却早已神游物外;打工人也会琢磨着怎么骗过AI,密歇根大学信息学院报道指出,一些员工在AI监控下,会采取一些行为AI对他们做出有利的解读。

实在不行,还可以增加带薪喝水和拉屎时间嘛。本该用于工作的能量,被消耗在如何与老板斗智斗勇。

这些对策朴实无华却很有效果:你可以监控我的姿势,但监控不了我的思想。就像《1984》里写到的,他们尽管聪明绝顶,却仍然未能掌握如何发现另一个人心里在想什么的秘密。

其实他们也并不聪明绝顶,因为过度监控往往意味着不知道如何真正解决问题。真没招了。

在教育中,当家长不知道如何用知识的魅力、探索的乐趣来吸引孩子时,便只能退而求其次,“你给我去写两个小时作业”。

职场上也一样,当老板们对真正的业务增长、产品创新或市场突围缺乏洞见与能力时,他们才会调转枪口,回过头来狠抓那些最容易测量的东西:流程、考勤、员工有没有偷拿公司的纸。就好像股价下跌是因为员工偷纸似的。

大量研究表明,监视会对个人的工作和学习的内在动机产生削弱作用。

在Lepper MR, Greene D (1975)的一项实验中,研究人员告知部分参与者,他们的表现将由主管通过电视摄像头进行监控,另一组则自由完成同样的任务。实验结果表明,与未被监控的参与者相比,被监控的参与者动机更低、表现更差。

这种监控带来的动机侵蚀,其根源在于它破坏了人与人之间最珍贵的信任感。

当监控无处不在,它传递的潜台词是“我不相信你会自觉做好”。这种不信任感进而形成一种自我实现的预言:小孩没人盯着就不写作业;员工下意识切换到混水摸鱼模式。

最终,AI监管提升的最终不是工作的效率,而是人类精湛的伪装技巧:第一批被AI统治的人类出现之日,也就是第一批表演艺术家诞生之时。

AI要破译这个,还得下点功夫呢。

本文来自微信公众号“酷玩实验室”,作者:酷玩实验室,36氪经授权发布。

+1
6

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

OTA利润暴涨背后,藏着行业真相。

45分钟前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业