AI招聘工具遭遇"诉讼风暴"!两大标志性案件敲响HR合规警钟
案件一:Mobley v. Workday——算法歧视第一案
凌晨1:50的拒信,揭开AI招聘的黑箱
40岁的非裔软件工程师Derek Mobley,患有焦虑和抑郁症。过去几年,他通过Workday平台申请了100多个岗位,无一例外被拒。更诡异的是,很多拒信在凌晨1:50发出,距他提交申请不到一小时——这个点没有HR工作,只能是AI。
Mobley怒而起诉,指控Workday的AI筛选工具存在年龄、种族和残障歧视。
2026年3月关键裁定:求职者受法律保护
2026年3月20日,联邦法官Rita Lin作出里程碑式裁定,明确驳回Workday的核心抗辩——该公司主张《年龄歧视就业法》(ADEA)仅保护在职员工,不适用于求职者。
法官裁定:ADEA明确保护求职者,Workday的AI系统”参与决策过程,推荐某些候选人,拒绝其他人”,绝非简单的”工具”。
此案已成为美国首个进入实质审理阶段的AI招聘歧视案,并已获批为全国集体诉讼——只要年满40岁、2020年9月以来使用Workday投简历被拒,都可能加入原告行列。
潜在影响:供应商不再是”避风港”
如果Workday败诉,使用其系统的雇主也可能面临连带责任。这意味着:企业在采购AI招聘工具时,不能再假设供应商已完全合规,必须主动承担审计责任。
案件二:Eightfold AI数据隐私诉讼——你的数据被”评分”了吗?
未经同意的”人才成功率报告”
2026年1月,求职者Jennifer Chen等人起诉AI招聘平台Eightfold AI,指控其:
-
未经同意,从社交媒体、浏览记录等渠道收集个人数据
-
生成”成功率报告”和”人才评分”
-
出售给雇主用于招聘决策
核心法律争议:AI工具=消费者报告机构?
原告主张,Eightfold AI实质上构成了“消费者报告机构”(CRA),却未遵守《公平信用报告法》(FCRA)的核心义务:
-
❌ 未获取书面同意
-
❌ 未确保数据准确性
-
❌ 未允许候选人查阅和更正报告
此案首次试图将AI招聘工具定性为消费者报告机构。若成立,整个行业将被迫重构数据收集和使用模式。
三大核心问题与行业反思
两起案件共同指向AI招聘的深层困境:
1️⃣ 责任归属模糊:谁该为AI的”偏见”买单?
当AI做出歧视性决策时,责任在供应商、雇主,还是双方连带?现行法律尚未给出清晰答案。Mobley案若确立供应商责任,将打破”我们只是工具”的免责盾牌。
2️⃣ 算法”黑箱”:求职者有权知道被拒绝的原因吗?
AI决策过程往往不透明。Mobley在诉状中指出,Workday系统对40岁以上求职者的通过率比30岁以下低38%,但算法如何得出这一结论?供应商是否有义务公开逻辑?
3️⃣ 合规要求升级:从”最佳实践”到”法律义务”
-
科罗拉多州:2026年起要求AI招聘工具进行偏见审计
-
伊利诺伊州:2026年2月《AI视频面试法案》全面生效,要求通知候选人、获得明确书面同意
-
纽约市:Local Law 144要求AI招聘工具进行独立偏见审计并公开结果
合规已从”加分项”变成”生死线”。
给HR行业的行动建议
无论案件最终判决如何,信号已经明确:AI招聘的法律蜜月期结束了。
对雇主:
✅ 尽职调查:采购前要求供应商提供算法透明度说明和偏见审计报告✅ 合同约定:明确责任分担,要求供应商承担合规担保义务✅ 人工复核:建立AI筛选后的人工审查机制,避免全自动决策✅ 持续监测:定期审查AI系统的筛选结果,排查歧视性模式
对AI供应商:
✅ 可解释性设计:确保算法决策可被审查和解释✅ 偏见审计:委托第三方进行定期算法偏见测试✅ 合规适配:针对不同司法管辖区的法律要求调整产品功能
结语
这两起诉讼标志着AI招聘正从技术问题转变为法律问题。当算法开始决定谁有资格获得工作机会时,公平就业的基本权利必须得到保障。
对于中国企业而言,虽然司法体系不同,但算法歧视、数据隐私的合规逻辑相通。2026年2月,国内已有企业因AI招聘系统存在性别、年龄歧视被处罚60万元。全球监管趋严的大背景下,主动合规,才是最大的风险对冲。
关注【人力科技生态圈】,获取更多人力科技生态前沿资讯与合规解读。

夜雨聆风