随着技术发展,人工智能已渗透至各类商业领域与工作场景。与信用评估、司法审判、商品定价等领域类似,AI 赋能技术正颠覆企业的人员招聘与选拔实践,市场渗透率呈指数级增长。相较于传统筛选与评估方式,AI 驱动的选拔工具因更高的效率与速度备受企业青睐,成为当下 “人才争夺战” 中的重要助力。远程办公与居家办公的普及,进一步推动企业采用线上面试替代线下面试,实现远程人才评估。
招聘决策直接影响个体生活状态与收入水平,算法宣称更公平、更少偏见,却频频出现性别歧视、隐私过度采集、决策黑箱等伦理冲突,早已不只是企业效率问题,而是与每个人就业机会密切相关的社会议题。从校园招聘到社会求职,从简历投递到面试评估,我们每个人都可能成为 AI 招聘的被评估者,正视其伦理风险,具有极强的现实意义。

本期,我们团队成员 - 项文娟,为大家研读分享 Ethics of AI-Enabled Recruiting and Selection: A Review and Research Agenda。本文通过系统梳理现有文献,首次全面呈现 AI 赋能招聘与选拔中的各类伦理议题,将现有研究按理论、实践、法律、技术、描述性五大视角进行分类,梳理招聘全流程中的 AI 应用场景,明确核心伦理机遇与风险,并归纳实践中缓解伦理风险的方案,同时指出现有研究存在的四大不足,提出未来理论与实证研究方向,为 AI 招聘伦理搭建了系统性研究框架与实践基础。
文献研读分享
题目:Ethics of AI-Enabled Recruiting and Selection: A Review and Research Agenda
作者:Anna Lena Hunkenschroer, Christoph Luetge
期刊:Journal of Business Ethics年代:2022
研究方法
本文采用 Noblit & Hare(1988)提出的解释性综述法,该方法以主题为核心,适用于涵盖定性、定量、概念性研究的多元文献整合分析。
1.文献检索与筛选
(1)检索时间:2021 年 1 月 4 日
(2)检索数据库:Business Source Complete、Web of Science、Scopus(3)检索策略:采用 AI、算法、机器学习、伦理、公平、偏见、招聘、选拔等关键词组合,仅纳入英文文献,不设置时间限制
(4)筛选流程:初步检索得到 756 条结果→剔除重复文献→审阅标题、摘要与全文→筛选出 33 篇核心文献→通过回溯检索与前瞻检索→最终确定 51 篇符合研究范围的文献
(5)排除标准:仅聚焦算法公平性技术评估的文献;与 AI 驱动招聘伦理性无直接关联的文章;致编辑信、评论、访谈、会议摘要等;非 AI 技术驱动的广义技术辅助招聘早期研究
2.文献分类与分析
(1)将 51 篇文献划分为理论视角、实践视角、法律视角、技术视角、描述性视角五大类别,由两名研究者独立分组,意见分歧时通过讨论达成一致
(2)结果显示:实践视角文献占比最高(39%),其次为技术视角(24%)、描述性视角(22%)、法律视角(10%),理论视角占比最低(6%)
3.分析步骤
(1)按研究视角分类现有文献,呈现学界对 AI 招聘伦理的评估方式
(2)梳理招聘中的 AI 应用,深化对研究主题的理解
(3)将文献中的伦理考量归纳为伦理机遇、伦理风险、伦理模糊性三类
(4)归纳实践中缓解伦理风险的方案
研究结果
1.AI 招聘伦理的五大研究视角
(1)理论视角
该类文献从伦理理论视角评估 AI 招聘实践,为伦理讨论奠定理论基础。本文筛选出 3 篇采用理论框架分析 AI 招聘的文献:
其一,借鉴医学、机器人学、人工智能等领域伦理框架,将其应用于人力资源场景,提出 HR 分析中应用 AI 需落实的五大伦理原则:隐私与保密、退出权、机构审查、透明度、尊重个体发展的动态性。
其二,引入女性主义理论与方法,主张其指导 AI 招聘系统设计,揭示若算法设计未考虑公平性,可能加剧弱势群体劣势,提出女性主义设计正义框架。
其三,从人本主义视角评估 AI 招聘,将人置于核心位置,提出人本招聘理念以应对技术发展。梳理这 3 篇理论文献可见,现有研究尚未从功利主义、义务论等经典伦理理论视角对 AI 招聘展开系统分析。
(2)实践视角
实践视角文献占比最高,以实践为导向,聚焦 AI 招聘对管理者与企业的现实影响。多数文献旨在提升从业者对 AI 招聘技术优势与局限的认知。部分文献基于实践经验,指出传统人才评估方法的缺陷,将 AI 视为极具潜力的替代方案;另一部分文献则警示 AI 招聘的风险,提出关于其准确性、伦理、法律与隐私影响的诸多待解问题;还有文献为管理者提供 AI 招聘伦理落地的实操建议,指导企业规范实施与投资。
(3)法律视角
法律视角文献从法律视角分析 AI 招聘。现有法律框架对招聘决策进行严格规范,但当前法律明显滞后于科技与商业实践发展。定向广告可能导致不公平排斥,却未被现行法律覆盖;现有监管力度不足,雇主因漠视招聘中隐性偏见需承担责任;研究呼吁扩充反歧视相关法律,要求雇主证明算法数据准确且无歧视,而非由歧视受害者举证。
(4)技术视角
技术视角文献从技术视角探讨 AI 招聘的伦理议题。部分文献通过分析算法机制解释伦理问题;另一部分文献提出将伦理原则嵌入算法代码或设计的技术方案。相关研究指出 AI 招聘需开展中立第三方审计,并提出多智能体软件架构支持招聘流程审计,同时呼吁未来攻克公平性与可解释性技术难题。
(5)描述性视角
描述性视角文献包含多项实验研究与一项案例研究,评估个体对 AI 招聘实践的反应。部分研究对比求职者对 AI 面试与人工面试的公平性感知,结论存在分歧:一类研究认为算法决策公平性低于人工决策;另一类研究认为二者无显著差异。研究还考察了 AI 使用告知程度、求职者计算机使用经验等情境与流程因素的影响。
2. 招聘全流程中的 AI 应用场景
(1)招募环节
企业通过算法在网络平台与社交媒体定向沟通、自动通知求职者,扩大潜在候选人覆盖范围。AI 机器人可锁定主动求职者与被动求职者,重新发掘过往优质候选人。AI 可优化招聘文案,消除性别偏见,打造性别中立文案,提升文案包容性与吸引力。
(2)筛选环节
AI 系统用于过滤求职者,生成候选短名单与排名。现代 AI 可识别语义匹配与相关术语,判断求职者资质;部分工具基于机器学习预测求职者未来绩效,或通过负面信号排除候选人。算法还可基于初筛结果,为求职者匹配最优岗位。
(3)评估环节
AI 视频面试通过音频与人脸识别技术分析语音语调、微表情、情绪等,判断求职者性格特质与能力。AI 技能测试、模拟测试、神经科学游戏可评估风险态度、规划能力、毅力、动机等特质。机器学习算法可分析优秀员工数据,提炼高绩效相关特征。部分 AI 通过分析社交媒体数字痕迹构建求职者心理画像,判断与企业文化匹配度。
(4)辅助环节
AI 通过自然语言处理技术解析简历,自动提取信息填写申请表。AI 助手与求职者沟通、解答疑问、安排面试。部分企业通过程序自动生成录用通知并完成电子签署,实现招聘流程全环节自动化协调。
3. 伦理考量:机遇、风险与模糊性
(1)伦理机遇
AI 可减少招聘各环节的人为偏见,按统一标准评估所有求职者,降低性别、外貌、主观印象等干扰。
AI 可实现跨求职者、跨时间的决策一致性,所有求职者经历完全相同的评估流程。AI 可通过聊天机器人等技术及时向求职者提供流程更新与反馈,改善求职体验。
AI 可显著提升组织招聘效率,缩短周期、降低成本。
AI 可将招聘者从重复事务中解放,赋能其从事更高价值的人才策略与沟通工作。
(2)伦理风险
AI 可能引入算法偏见,训练数据中的历史歧视会被算法学习并放大,形成对特定群体的系统性歧视。
AI 招聘带来隐私丧失与权力不对称问题,企业过度采集个人数据,求职者因弱势地位难以真正拒绝。
AI 存在透明度与可解释性缺失,算法决策呈黑箱状态,无法说明判定依据,可能掩盖歧视行为。
AI 自动化决策导致问责模糊,企业、供应商、开发者之间责任难以界定。
过度依赖 AI 可能导致人类监督缺失,完全自动化招聘剥夺人类介入权,丧失人文判断与例外处理能力。
(3)伦理模糊性
AI 对员工队伍多样性的影响尚无定论,既可推动多元也可能加剧同质化。
知情同意与个人数据使用边界不清晰,社交媒体数据用于招聘的伦理合理性存疑。
AI 评估的有效性与准确性缺乏充分科学验证,部分工具未经过心理学效度检验。
个体对 AI 招聘的公平感知存在显著差异,研究结论不一致,受场景、文化、个体特质影响明显。
4. 伦理风险缓解方案
(1)政府监管
加强政府监控与立法,针对算法分类偏见出台专门法律回应,核查招聘流程是否违反就业法与人权。建立行业规范,弥补现有监管存在的伦理漏洞,要求企业在使用预测性招聘工具时超越法律底线。
(2)企业内部标准
严格遵守隐私法规,保护敏感数据,主动告知求职者 AI 使用情况并获取明确知情同意。公开算法技术与数据集,保障流程透明度,明确告知求职者交互对象是人类还是 AI。保留人类最终审核权,坚持算法辅助人类决策而非算法独立决策。设立 AI 伦理委员会,制定企业内部 AI 伦理规范,组建多元化数据团队提升算法包容性。
(3)技术尽职调查
提升招聘者与开发者的数据素养及 AI 能力,保障算法准确性与有效性。外购技术需查验心理测量信度、效标效度、偏见影响等关键信息。在 AI 工具设计中嵌入偏见缓解技术,移除敏感特征,利用开源工具检测歧视模式。建立可审计机制,定期核查算法偏见与数据错误,拒绝黑箱模型,研发可解释 AI。
(4)员工伦理意识
企业需培养知晓 AI 招聘机遇与风险的专业人才,提升 HR 与数据科学家对算法偏见、隐私、公平的认知水平。在监管不足的情况下,推动超越法律要求的伦理思考,实现 AI 工具合规且负责任地使用。
未来研究启示
1. 理论启示
2. 实证启示
(1)检验 AI 招聘工具的效标效度、预测准确性与科学有效性,对比其与传统选拔方式的差异。
(2)探究求职者知情同意的真实状态,明确隐私担忧的影响因素及文化、地区差异。
实践启示
AI 并非天然公平,即便供应商宣称无偏见,算法仍可能因训练数据、设计缺陷产生偏见,企业必须主动审计、持续监控。 坚守人类在决策闭环中,禁止全自动无人招聘,在算法训练、验证、部署全流程保留人类参与。 向求职者充分透明告知 AI 使用情况、数据用途、决策逻辑与申诉渠道,保障知情权与解释权。 外购 AI 工具必须进行严格尽职调查,查验效度、偏见报告与可解释性,拒绝使用黑箱模型。 建立 “法律 + 内控 + 技术 + 人员” 多层级伦理治理体系,超越法律最低要求。 以长期声誉与社会合法性为重,平衡技术效率与伦理底线,维护企业社会责任形象。
✨智研前沿 Human-AI Inquiry 是由浙商大 Insight & Interaction Lab 研究小组运营管理的公众号,聚焦商科语境下人工智能与人类社会的交汇研究,分享学术文献精读与研究洞察。关注我们,洞见智能时代的商业与人文前沿。
夜雨聆风