AI让职场更高效了吗?不,它先制造了一批“看起来很忙”的人
如果你最近打开过飞书或钉钉,可能刷到过这样的场景:
某位领导在群里@所有人表扬某人的周报写得漂亮。
每个项目都有数据支撑,每条结论都有方法论兜底,整篇读下来像是在咨询公司打磨了三年的晋升述职材料。
领导很满意。
然后第二天,这位领导私下问了一个细节,对方支支吾吾。
再追问"你点开过需求文档的原文件吗?"
没有。
他甚至都没有打开过那个文件夹。
这不是段子,这是一门新版本的职场显学。
你的同事、你的下属、甚至你的老板,正在用AI批量制造看起来很棒的东西。
代码能跑吗?数据能对上吗?文档有人读过吗?
没人在乎,只要显得在跟进就行。
Sam Altman去年在X上发过一段话,大意是:AI主题的Twitter和Reddit现在"感觉很假",假到一两年前还不会这样。
但他说漏了一件事,假起来的何止是社交媒体?
办公室里的日报、周报、需求文档、技术方案,正在以比社交网络更快的速度,变成AI流水线上的印刷品。
AI让假装懂行变得容易
有网友分享了一个职场场景:他发现同事用Claude生成技术回复,但对方并不理解自己在讨论什么,只是借助AI生成了一段听起来很像专家的发言。
类似的案例还有很多。
Reddit上一位技术负责人吐槽,团队被要求多用Cursor这类AI编程工具后,收到了大量垃圾PR:
几个本该不到100行的改动,被扩写成5000行以上;AI乱改架构、虚构外部服务、模拟不存在的API;为了让测试通过,AI生成的代码悄悄绕过了大部分权限校验。
这位网友的原话是:"用Cursor给我的感觉就是来个人都能往外扔代码,但改bug和审查的时间省不了,只是把成本转移给了团队里真正懂的人"。
换句话说,这不是新手在用AI提效,而是一个没受过专业训练的人,开始用AI扮演这个领域的专业人士。
更可怕的是,公司激励还在保护这种扮演。
这就是AI时代的职场风险,AI不一定让人更有能力,但会让人更容易表演出能力。
恰如一位用户精辟总结:"AI正在制造大量职场垃圾,劣币驱逐良币"。
产出和能力脱钩了
Reddit上有个流行词,叫 "Workslop",专指员工用AI生成的、看着精美但实际上对工作推进毫无帮助的产出。
斯坦福社交媒体实验室和BetterUp Labs联合做了一项调查:
在1150名美国全职员工中,40%的受访者在过去一个月内收到过这种AI糊弄产出,个人平均要为它额外搭进去将近2小时的纠错时间。
对一个一万人的大厂来说,这些隐形消耗一年能烧掉900万美元。
这还只是被统计出来的糊弄,中文职场里那些没被统计的糊弄,估计更魔幻。
知乎上有个高赞吐槽精准再现了"赛博工贼"的操作:
某位同事给技术团队发了一份AI生成的超长需求总结,排版精美、要点罗列清晰,像个正经交付物。
结果团队照着干了一周才发现,关键细节全写错了,或者根本没写。
"后来我们调聊天记录,发现那人写完AI总结自己都没读,跟个AI中间商一样直接转发了",该网友写道。
这就解释了为什么很多公司一边大规模采购AI工具、一边死活看不到真实ROI。
很多组织现在衡量AI落地效果的方式,还停留在"用了多少次""生成了多少文档""节省了多少写作时间""员工有没有把AI写进周报"。
这套指标很容易制造一种幻觉,公司好像进入了AI原生时代,所有人都在提效,所有流程都在自动化。
但生成速度提升,不等于判断质量提升。
过去人工慢,并不一定是效率低下,反而可能是工作质量形成的过程。
一个人写方案、搭系统、调代码、犯错、返工,正是在这个过程中获得判断力。
现在AI把生成这一步拿走了,但判断仍然需要人来承担。
问题是,越来越少的人愿意真正获得或使用这种判断力。
这对企业AI落地特别关键。
很多公司以为人是流程里的瓶颈,所以要让Agent更自主、更少依赖人。
但在很多场景里,人不是低效遗留物,而是系统里唯一真正有责任感、有判断力、会承担后果的部分。
如果把human-in-the-loop里的human拿掉,不一定是效率提升,可能是把系统唯一的纠错机制拿掉了。
职场正在出现一种新的"AI垃圾内容"
过去我们谈AI垃圾内容,更多想到的是互联网上的水文、假图、营销号、SEO。
但更贵的AI垃圾,正在企业内部出现。
过去一页能说清的需求,现在变成十几页PRD;
过去三句话能讲完的进度,现在变成结构完整的项目周报;
过去一个简单复盘,现在变成"背景—问题—原因—行动项—风险提示"五层嵌套。
有人在网上吐槽:"下属交的AI周报看起来面面俱到,但我读完发现根本不知道他这周到底干了什么"。
而对员工来说,手写周报被AI生成内容淹没,认真干活不如会写Prompt来得快,形成了一种负向激励。
这些内容的共同点是:
生产者不一定认真读,接收者也不一定读得下去。生成成本几乎为零,阅读成本却没有降。
相反,读的人还要额外花时间判断,哪些是事实,哪些是结论,哪些只是模型补出来的合理废话。
AI让生成变便宜了,但它也让判断变得更贵。
这对企业AI落地是一个提醒。
不要只问接入了多少AI工具,也不要只看员工用了多少token,更不要把AI使用率当成生产力本身。
真正该问的是:AI是否降低了返工率?是否缩短了交付周期?是否减少了客户投诉?是否提升了决策质量?是否让团队更快抵达正确答案?
如果没有,所谓AI提效,很可能只是把过去的低效,包装成了一种更漂亮的新低效。
而企业真正要解决的,不是让每个人都更会用 AI,而是建立一套机制,识别什么是真产出,什么只是更高级的职场噪音。
可信工作会变得更贵
在这种趋势下,当越来越多公司把自己变成内容生成流水线,那些仍然认真做判断、认真审查、认真交付的公司,反而会获得更高价值。
因为客户真正购买的不是一堆文档、报告和代码,而是企业背后那套专业判断。
四大之一的国际咨询公司Deloitte(德勤),去年受澳大利亚政府委托做一份关于福利系统审查的独立报告,合同额约44万澳元。
报告出来后被发现内容存在虚假引用、虚构引言、不存在的脚注。
说白了,就是AI生成时制造的幻觉,信息有鼻子有眼,但全都是模型编的。
德勤最终退还了部分费用,它还在报告附录里默默补上一条注解:我们用了Azure OpenAI GPT-4o。
但这不是AI的锅,而是AI生成物进入交付链条,却没有被真正审查。
这类风险已经开始从企业内部效率问题,变成了客户信任问题。
当客户真的开始人工审查交付物时,一些公司会发现,自己掏空的正是客户原本愿意付钱购买的东西。
本文来自微信公众号“世界模型工场”,作者:世界模型工场,36氪经授权发布。















