你用的每一个AI模型,背后都有真人在盯着那些最脏最黑暗的内容——儿童性侵材料、自杀诱导、极端暴力——然后给它们打标签,告诉模型这些是什么,应该如何反应。
这份工作叫数据标注。
负责这件事的公司里,Scale AI是最大的之一。
Scale AI是干什么的
Scale AI由Alexandr Wang在19岁时创办,现在是AI数据基础设施领域最重要的公司之一。他们的客户包括OpenAI、Google、Meta,以及美国国防部。
2024年,Meta直接往里投了143亿美元,成为Scale AI的大股东。
这意味着Scale AI现在部分属于Meta,同时继续给Meta提供训练数据服务——一个很奇怪的循环。
劳工部来查了
2025年3月,TechCrunch报道了美国劳工部(DOL)正在对Scale AI展开调查,怀疑其违反《公平劳动标准法》(FLSA)。
这个调查是拜登政府时期启动的,持续了将近一年才被外界知晓。
调查焦点是Scale AI的工人——他们不叫员工,叫”Taskers”。Scale AI把他们定性为独立承包商而不是正式雇员,这在法律上有实质区别:承包商不享有联邦最低工资保障,没有社保,不受工时法律保护。
菲律宾的情况更直接:当地工人在给Google无人驾驶项目标注数据,报告显示报酬低于当地法定最低工资,没有医疗保险或带薪假期。
Scale AI方面否认了违规指控。
Schuster诉Scale AI:心理伤害案
钱还不是最核心的问题。
加州北区法院正在审理一起案件,原告是Scale AI的多名前”Taskers”,核心诉求是:公司让工人长时间接触有害内容,造成了严重心理损伤,且公司没有尽到保护义务。
这些工人被要求与AI系统进行长时间对话,内容涉及:
- 自杀诱导和方法描述
- 儿童性侵材料(CSAM)相关内容
- 极端暴力和掠夺场景
根据诉状,这不是快速点选跳过的工作。AI系统会针对工人的每个回应继续追问细节,要求工人持续深入接触这类内容,”需要完全的精神投入”。
诉状中提到了两个词:道德伤害(moral injury)——长期被迫做出违背自身价值观的行为所造成的心理损伤——以及机构背叛(institutional betrayal),指雇主明知工人面临风险却未提供保护。
工人描述了PTSD、抑郁、焦虑等具体症状。
诉讼指控的罪名包括:过失侵权,以及加州不正当竞争法(UCL)违规,并正在申请集体诉讼资格。
这不是第一次
这个模式不陌生。
2020年,The Verge发表过深度报道,揭露Facebook(现Meta)雇用内容审核工人大量接触恐怖主义、儿童暴力内容,工人普遍出现创伤后应激症状。最终,Facebook的承包商Cognizant赔偿了5200万美元和解相关诉讼。
但那是内容审核——工人的任务是把有害内容从平台上删掉。
Scale AI的工人做的是AI训练数据标注——他们在教模型”遇到这类内容该怎么反应”。这项工作更隐蔽,公众认知度更低,但造成的心理损伤程度并不小于内容审核。
行业结构问题
Scale AI案暴露的,是AI行业的一个系统性安排:
把最有害、最难处理的工作外包给薪资最低的工人,用”独立承包商”的身份绕过劳工保护,然后在自己的产品发布页上大谈”负责任的AI”和”安全优先”。
Meta在2024年花143亿美元收购了Scale AI多数股权。同期,Meta在”AI安全”和”负责任AI”上发表了大量声明和研究报告。但那些在菲律宾每天对着有害内容打标签、可能拿着低于最低工资报酬的工人,在任何一份官方声明里都找不到自己的名字。
这些工人的劳动是AI能力的物质基础,但这部分成本从来不出现在大模型的训练成本对比表里。
现在,法院要开始算这笔账了。
参考来源:Scale AI is being investigated by the US Department of Labor(TechCrunch);Training Artificial Intelligence and Employer Liability: Lessons from Schuster v. Scale AI(Epstein Becker Green Workforce Bulletin);Scale AI, Data Labeling Company, Under Investigation by the US Department of Labor(AIBase)