
【编者按】在数字时代的浪潮中,内容审核员作为社交平台的“隐形守护者”,长期处于高压工作环境,却往往被忽视其权益保障。近日,meta在肯尼亚的外包公司Sama因合同终止,宣布大规模裁员逾千人,这背后折射出全球科技产业链中劳工权益的深层困境。此前,数百名审核员已因低薪、缺乏心理支持等问题将Sama告上法庭,索赔高达16亿美元。他们每日过滤暴力、色情等极端内容,承受巨大心理创伤,却难获应有保障。这场风波不仅关乎个体命运,更敲响了科技伦理与企业责任的警钟——当算法与流量狂奔时,谁该为“人性防线”的崩塌买单?
肯尼亚内罗毕(美联社)——一家因恶劣工作条件被脸书内容审核员起诉的公司周四表示,在脸书母公司meta终止合同后,将有超过1000名员工被裁。
自2022年起,meta及其当地外包商Sama便因前内容审核员指控其支付低薪且未提供充分心理健康支持而对簿公堂。此后Sama转型业务模式,停止为meta提供内容审核服务,转而专注于为这家科技巨头提供AI数据标注等业务。
Sama周四声明称,已收到meta正式通知,终止其“内罗毕办公室的主要合作项目”。公司已发布正式裁员通知,波及1108名员工,并强调“正以关怀与尊重积极支持受影响员工”。
2023年,约200名前内容审核员起诉Sama剥削劳工,指控包括薪资过低、对高压工作缺乏心理支持以及工时过长。
这些员工曾受雇于meta在内罗毕的外包内容审核中心,负责筛查非洲用户发布的帖子、视频、信息等内容,清除违反社区准则和服务条款的非法或有害材料。
他们描述称,每日需连续数小时审核令人痛苦的视频,包括儿童受虐、女性遇害等内容,却难以获得心理咨询师支持。
来自多个非洲国家的审核员正索赔16亿美元。案件仍在审理中。
Sama此前曾辩称,其支付工资为当地最低标准的四倍,并为员工提供无限制心理健康支持。
脸书母公司meta则表示,其承包商有义务支付高于行业标准的薪资,并通过专业培训人员提供现场支持。