单价上千的新型数据外包,正在围猎985毕业生
提到数据标注,很多人脑海里浮现的,仍是几年前那幅画面:
二、三线城市的外包基地里,上百人排排坐,盯着屏幕给图像框选车辆、行人、红绿灯。这类任务门槛极低,无需培训,按件计酬,完成上千张标注收入勉强200元。
但最近一两年,风向悄然变了。随着模型能力的升级,训练所追求的不仅是识别能力,更是判断和推理能力。
于是,一种时薪上千的新型标注任务开始在各大平台和众包社区流行:评估AI回答是否隐含偏见,改写带有误导性的医疗建议,比较两个政治话题回复哪个更中立。
这些任务动辄耗时一两个小时,要求标注者具备语言敏感度、常识推理能力,甚至基础的法律或伦理知识,报酬也水涨船高,普通任务百元起步,复杂场景下,一单800到1000元已不罕见。
同样是支撑智能系统运转的劳动,为何一个被高价争抢,一个却被压到底端?模型标注需求的升级,对于普通劳动者而言究竟意味着什么?
01 从一单五毛到一单上千
给大模型标注并不是新鲜事。早在2018年前后,随着计算机视觉和语音识别技术的爆发,数据标注的风就已吹进中国广大的基层劳动市场:三、四线城市的待业青年、照顾孩子的全职妈妈、课余时间打零工的大学生,甚至一些退休后想补贴家用的老年人。平台通过微信群、兼职APP或地方劳务中介层层分包任务,形成一张覆盖城乡的数字零工网络。
那时的招聘广告写得简单直白:“会用电脑即可”“在家可做”“日结工资”。门槛之低,几乎消除了所有技能壁垒:不需要学历证明,不考察专业背景,只要能分清红绿灯、听清普通话、点准鼠标,就能上岗。
然而,这种“人人可参与”的表象之下,隐藏着被业内称为赛博血汗工厂的残酷现实。
为了维持模型训练所需的海量数据供给,平台普遍设定高压产出指标:熟练工每天至少需完成500张图像标注,合格图片的报酬仅在0.2元至0.4元之间,日收入很难突破200元,而这往往还不到知识型众包中一道题目的价格。
在这里,劳动被极致标准化、碎片化、去人性化,连坐一周就会感到明显的头昏眼花、颈椎僵硬。干一年和干一天在技能、经验或职业发展上几乎没有差别。一旦平台引入AI预标注工具,人力需求便迅速萎缩,毫无议价能力的劳动者只能被动接受降薪或淘汰。
而在城市的另一端,一场截然不同的数据生产正在兴起。985高校的博士生、三甲医院的主治医师、律所的资深律师、财经媒体的主笔……他们坐在图书馆、咖啡馆或家中书房,花费两三个小时打磨一条关于“生成式AI对医疗诊断责任认定的影响”或“如何向高中生解释货币政策传导机制”的参考答案,完成后,账户入账600元、800元,甚至1000元。他们不必打卡,不用赶量,可以拒绝不符合专业方向的任务,平台还会主动邀请他们参与高阶项目评审。
于是,同是为大模型提供训练数据,劳动却分裂成两个世界:一边是一单五毛的机械点击,靠透支视力与青春换取微薄日薪;一边是一单上千的认知输出,用专业积淀兑换灵活高酬。
高价值任务带来高收入、高认知刺激和行业资源,形成正向循环;低价值劳动则陷入低薪、无成长、技能退化的负螺旋。
这不免让人疑惑:AI是不是成了两极分化的凶手?所谓的高薪标注到底是怎么一回事?
02 时薪过百,真有那么香?
随着通用模型能力需求从识别到推理,医学、法律、心理学等垂类模型快速发展,简单标注无法满足训练需求。AI不再需要知道答案的人,而是需要能教会它如何可靠地生成答案的人。
那么这类高薪标注模型标注的人才画像是什么?又隐藏着一种怎样的价值观呢?
表面上看,有人一单入账上千元,工作自由、时间灵活,仿佛进入了智能时代的新蓝领阶层,但深入其中就会发现,这扇门虽未明写仅限名校,却在实践中悄然向985、211高校毕业生倾斜。平台未必只看文凭,但面对海量申请者,学历成了最高效的初筛信号。
一位拥有多年科研经验的博士曾尝试参与某大模型项目,却在试标阶段被拒。他的回答“过于学术,缺乏教学引导性”,不符合平台对“AI友好型表达”的要求。这说明,学历只是敲门砖,真正决定去留的,是能否将专业知识转化为模型可学习的思维范式。
当然,高学历某种程度也意味着高报酬。在计算机、临床医学、法律或金融等领域,一道需要整合前沿文献、构建推理链条的任务,报价常达600至1000元。即便是哲学、教育、新闻等文科方向,只要具备思辨深度或教学价值,时薪也能轻松过百。但高回报背后是严苛的质量门槛,平台不为努力买单,只为一次合格率付费。多数任务需经历两到三轮返修,一次逻辑疏漏、一处引用偏差,就可能被整单拒收。
关于工作形式,平台定期释放题库,用户自主认领,无打卡、无坐班、有空就做……这种弹性的工作形式吸引了大量研究生、青年教师和自由职业者。可这并不意味着一次合格就一劳永逸,系统会根据历史交付质量动态分配任务权重。表现优异者被打上“优质贡献者”标签,优先获得高单价题目,而反复返修的人也会被算法悄然降权,减少发放。
说到底,时薪过百买的不是时间,而是可规模化、可标准化、可被AI内化的高质量人类思维。而这张通往高薪的门票因此只发给那些既能深耕领域知识,又能跳出学术话语、持续迭代表达方式的人机协作型人才。
但AI的进化永不停歇,它一边淘汰底层的机械劳动,一边不断抬高认知协作的门槛。昨天还在写问答对的人,今天可能就要设计伦理测试集;今天被视为专家的输出,明天或许就能被新模型自动合成。
本质上,AI一直在产生新的工作形态,而这一过程的本质仍是“剥削”人类的体力和脑力去完成自己的进化。
03 升级等于解放吗?警惕技术幻觉下的新剥削
AI的进化从未停止催生新角色。十年前,没人知道数据标注员是什么;五年前,提示工程师还是冷门词汇;如今,“AI训练师”“伦理对齐专员”“多模态内容设计师”正成为招聘热词。
但它每向前一步,人类劳动的分野就加深一分。当模型从识别图像走向生成法律意见、撰写医学诊断建议时,它对好数据的定义也随之升级。
也就是说,AI其实在进化中不断淘汰旧的岗位、产生新的岗位。传统数据标注刚兴起时,甚至有辅导机构去做相关的培训。但现在,高薪知识标注又筑起了新的技能壁垒。
首先,新岗位的诞生并不意味着机会均等。数据标注升级的同时,准入门槛也提高。平台虽不公开写明“仅限985”,却通过试标任务、专业背景审核和交付质量追踪,将绝大多数非体系化训练者挡在门外。
其次,即便进入高阶标注岗位,劳动关系的本质仍未改变。多数从业者仍以“灵活用工”“项目外包”形式存在,没有劳动合同、晋升通道,甚至不被视为公司正式人力结构的一部分。他们可能每天花数小时判断一段AI生成内容是否“冒犯少数群体”,却从未参与过相关伦理准则的制定。他们的脑力被征用,主体性却被抹去。
值得警惕的是,AI产业正通过技能神话合理化这种不平等。平台常宣称,“高价值任务理应匹配高能力者”,仿佛薪酬差距完全由个人努力决定。事实上,所谓高阶技能往往是临时性、碎片化且不可积累的。
今天需要你判断政治偏见,明天可能转向医疗术语校准,后天又要求你理解科幻小说中的隐喻,这些任务彼此割裂,难以形成可迁移的职业资产。劳动者被迫持续学习、快速适应,却始终处于用完即走的不稳定状态。
而一旦模型通过人类反馈学会某种判断模式,这类标注任务就会迅速减少甚至消失。昨天还在写千元问答的人,明天可能就找不到同类题目。你贡献了让AI变聪明的关键数据,却无法分享它商业化后的任何收益。
所以,当我们看到“一单200”的新闻时,或许不必急于欢呼低端劳动正在消失。真正值得观察的,是那些曾经做着5毛一单的人,现在去了哪里?
AI的发展不会停下,岗位也会继续变。但对具体的人来说,每一次升级背后,可能都是一道不得不跨越的窄门。
本文来自微信公众号 “脑极体”(ID:unity007),作者:珊瑚,36氪经授权发布。















