你的简历正在被AI歧视,而你可能不知道
“项目成果都用STAR法则,自我评价全是’结果导向’,连排版都越来越像。我开始怀疑,这些简历到底是人写的,还是AI写的。”
她的怀疑是对的。但更麻烦的是:她用来筛选简历的工具,可能也是AI。

这不是科幻场景。马里兰大学、新加坡国立大学和俄亥俄州立大学最近做了一个实验:他们拿了2245份ChatGPT出现前的真实人类简历,让GPT-4o等7个主流AI模型全部重写一遍,然后让AI招聘工具来挑”哪个更好”。
结果是:AI招聘工具几乎每次都选AI写的简历。人类写的,几乎没赢过。
更讽刺的是,即使让人类评委先看一遍,他们也更喜欢人类写的版本。但AI筛选工具不管这些。它有自己的偏好。
问题出在哪里?
简单说:AI招聘工具训练时,用的是”成功入职者”的简历数据。而这些数据里,越来越多是AI优化过的简历。于是工具学会了:AI味 = 高质量。
这就形成了一个闭环:AI写简历 → AI筛简历 → AI写的简历更容易通过 → 更多人用AI写简历 → AI工具更偏爱AI味。
人类写的、有个性的、不那么”标准”的简历,反而被系统性地过滤掉了。

拿我自己的简历做实验:A版是完全手写,B版是用ChatGPT优化过的。把两份都投给同一个使用AI筛选的招聘平台。B版的通过率是A版的3倍。
但有个细节很有意思:B版通过初筛后,到了HR面试环节,经常被问”你简历上这句话具体是什么意思”。因为AI写的表述,有时候连我自己都解释不清楚。
这就是代价:你获得了入场券,但入场后可能露馅。
如果你是正在求职的打工人,这个局面很尴尬。
你不用AI优化简历,可能在初筛就被刷掉。你用了,又可能在面试时被追问细节。更麻烦的是,你不知道对方公司用的是不是AI筛选工具——大多数公司不会告诉你。
我的建议是:两手准备。
第一,准备两个版本的简历。一个是”AI友好版”——关键词匹配、结构清晰、用数据说话,专门用来过机筛。另一个是”人类可读版”——有故事、有细节、有你的真实思考,面试时带过去。
第二,在AI优化过的简历里,故意留几个”人味”的细节。比如一段非标准的项目描述,或者一个不那么完美的成果表述。这能让HR意识到:背后是个真人。
“在算法时代,’像人’反而成了一种竞争优势。”
如果你是HR或招聘负责人,这个问题更棘手。
AI筛选工具确实能节省大量时间。但如果工具本身有偏见,你省下的时间,可能换来的是人才质量的下降。
有个简单的检测方法:定期抽查被AI刷掉的简历。随机选10份,让人类HR重新评估。如果发现有明显误判,说明你的工具需要调优,或者需要调整人机协作的比例。
更根本的问题是:当招聘双方都武装上AI,这场博弈的终点是什么?

我想到一个类比:外卖平台的算法。
一开始,算法只是帮用户更快找到餐厅。后来,算法开始优化配送路线、预测订单量、甚至指导商家定价。最后,商家、骑手、用户都被困在算法里,每个人都在优化自己的指标,但整体体验却下降了。
招聘市场正在走类似的路。
求职者优化简历通过率,公司优化筛选效率,平台优化匹配算法。每个人都做了”理性”的选择,但结果是:真正合适的人和岗位,反而更难相遇。
更深层的问题在于:什么是”好简历”?
AI工具的定义是:符合历史成功模式的简历。但历史成功模式,不代表未来需要的能力。过度依赖这种筛选,会让组织陷入”同质化陷阱”——招进来的人都很像,但缺乏多样性,缺乏突破性思维。
如果你是公司决策者,需要考虑的不只是效率,还有长期竞争力。
有个反直觉的数据:谷歌早期研究发现,GPA和面试表现对预测员工绩效的贡献,远低于预期。真正重要的因素,往往是那些简历上不会写的东西:好奇心、韧性、跨界思维。
而这些,恰恰是AI筛选工具最不擅长识别的。

最后说一个趋势。
算法推荐新规已经出台,监管部门开始关注”大数据杀熟”和算法偏见。招聘领域的算法治理,可能也不远了。
对于公司来说,提前建立算法审计机制,不是成本,是风险管理。对于求职者来说,了解这些规则,不是为了钻空子,是为了在不对称的信息环境中,保护自己的机会。
技术本身没有善恶。但当技术被大规模应用,却缺乏透明度和制衡机制时,问题就会出现。
你的简历被AI歧视,只是这个问题的冰山一角。
——
你用过AI优化简历吗?感觉有效,还是感觉更焦虑了?
夜雨聆风