

(图片由HRflag用Midjourney生成,编号4a8ad8c8-0361-4742-90b7-0829dfff43b9_2)
2026年,企业关于AI的讨论正在从“要不要用”进入“怎么负责任地用”。这也是为什么 SHRM 在5月发布《The Path Forward: SHRM's AI Legislative Framework for the Modern Workplace》值得企业高管和HR负责人关注。它不是一份普通的技术倡议,也不是一份抽象的伦理宣言,而是一份面向美国联邦政策制定者的职场AI治理框架。SHRM明确提出,AI正在进入招聘、培训、劳动力规划和日常运营,企业需要更清晰、更一致、更可执行的政策基础,来支持负责任创新、保护员工、提升劳动力准备度,并帮助组织形成长期竞争力。
这份框架最重要的信号并不在于“美国是否会出台一部统一的AI职场法”,而在于它把一个更现实的问题摆到企业面前:当AI开始影响招聘、晋升、绩效、薪酬、排班、培训和岗位重塑,HR不能再只是AI工具的使用者,而必须成为AI治理体系的共同设计者。

过去一年,很多企业把AI当作效率工具来部署:写文案、筛简历、做报表、生成培训材料、辅助客服、自动汇总会议纪要。但真正的转折点正在到来。AI不再只是帮助员工“更快完成任务”,而是开始介入组织如何定义岗位、如何评价绩效、如何分配机会、如何识别潜力、如何规划人员结构。换句话说,AI已经从工具层,进入了组织权力分配层。
这正是SHRM框架值得重视的地方。它没有简单鼓吹“放开AI”,也没有把AI治理写成一组沉重的合规条款,而是提出了八个支柱:全国统一的职场AI框架、基于风险的自愿治理、高风险场景的有限强制要求、负责任采用AI的安全港、降低雇主负担、劳动力准备与再技能化、利益相关方参与、对中小企业的支持。
对中国企业来说,这份框架的价值并不在于照搬美国政策,而在于它提供了一个判断AI转型成熟度的新坐标:真正成熟的AI组织,不是工具买得最多的组织,而是能够把AI嵌入业务、嵌入岗位、嵌入治理、嵌入员工发展的组织。
AI职场治理,正在从“技术风险”变成“组织风险”
企业过去谈AI治理,往往更关注数据安全、模型准确性、信息泄露、版权风险。这些当然重要,但对HR而言,更大的风险往往发生在“看似合理”的管理场景里。比如,一个AI招聘系统根据历史优秀员工画像筛选候选人;一个绩效分析工具根据行为数据推断员工贡献;一个排班算法根据客流预测安排门店人力;一个学习平台根据岗位画像推荐员工技能路径;一个内部人才市场系统根据数据匹配晋升机会。它们看起来都很高效,也都符合管理逻辑,但每一个系统背后,都可能影响人的机会、收入、职业路径和组织归属感。
SHRM在白皮书中将“高风险职场AI场景”定义为那些可能实质性影响重大雇佣结果的AI用途,例如招聘、晋升、解雇或薪酬决策。对于这些场景,SHRM主张应当引入有针对性的透明度和人工监督,而不是让AI系统直接替代最终管理判断。这对企业管理者非常关键。因为AI在组织中的风险,往往不是来自“它是否足够聪明”,而是来自“它是否被赋予了不该独自拥有的决策权”。
一个推荐系统可以帮助HR更快识别候选人,但不能让算法成为事实上的招聘门槛;一个绩效模型可以帮助管理者发现团队异常,但不能把员工的职业评价简化为一组系统分数;一个AI排班工具可以提升运营效率,但不能忽视劳动强度、员工意愿与公平性。AI可以成为管理判断的增强器,但不应成为管理责任的替代品。
这也是为什么SHRM反复强调“AI + HI = ROI”。这里的HI指Human Intelligence,即人的判断、经验、同理心和责任意识。SHRM的逻辑并不是“AI越多越好”,而是AI必须与人的判断结合,才能转化为真正的组织回报。
对高管来说,这意味着AI转型不能只交给IT部门,也不能只由业务部门零散试点。AI一旦进入招聘、绩效、薪酬、培训、组织设计,就进入了HR的核心职责范围。未来HR的关键能力,不只是会不会用AI,而是能不能为AI进入组织建立边界、流程、责任和信任。
企业真正缺的,不是AI热情,而是AI政策
SHRM的研究显示,AI在HR中的采用已经明显加速。在已经实施AI的组织中,HR专业人员有26%每周使用AI,20%每天使用AI,9%一天多次使用AI;到2025年,HR总监及以上层级中已有73%采用AI,高于经理/主管层级的66%和个人贡献者层级的65%。
这组数据很有意思。它说明AI并不是先从基层自然扩散,而是很大程度上由领导层推动。高层看到了AI带来的效率、质量和创造力提升,于是希望整个组织快速跟进。但问题也由此产生:当领导层推动AI采用的速度快于组织制度建设的速度,企业就容易进入“工具先行、政策滞后”的状态。
SHRM在另一项数据中指出,在已经使用或即将试点AI的组织中,只有49%有政策来规范员工队伍中的AI使用;而在已经有AI政策的组织中,只有四分之一认为这些政策清晰且面向未来。这其实是当下很多企业的真实处境:AI工具已经进来了,员工已经开始用了,业务部门已经在试点了,供应商已经在推系统了,但企业内部对“哪些场景能用、哪些不能用、数据能否上传、AI输出如何审核、供应商如何评估、员工是否需要告知、结果如何申诉”并没有统一答案。
于是,AI adoption 看起来很热闹,但组织内部的治理基础很薄。员工不知道哪些行为合规,管理者不知道哪些结果可以采信,HR不知道如何审查算法影响,法务不知道供应商文档是否充分,IT不知道业务到底接入了多少AI工具。
这就是SHRM强调全国一致框架的原因。对跨州运营的美国企业来说,碎片化监管会提高合规成本;对任何一个跨区域、跨业务单元经营的企业来说,内部碎片化同样会制造管理风险。SHRM主张建立一致的职场AI框架,为雇主和员工提供更清晰的合规预期与监督基础。
放在企业内部看,高管和HR负责人需要尽快完成一次“AI政策盘点”:公司内部到底有哪些AI工具正在使用?哪些进入了HR场景?哪些影响员工机会和权益?哪些由供应商提供?哪些没有经过审查?哪些场景只是效率辅助,哪些已经接近管理决策?如果这些问题无法回答,企业就不是在系统推进AI,而是在让AI以“灰色方式”进入组织运行。
AI治理的第一步,不是写一份漂亮的制度,而是建立一张真实的AI使用地图。这张地图至少要回答四个问题:谁在用AI,用在哪些流程,影响哪些人,产生什么决策后果。没有这张地图,企业谈不上风险分级,也谈不上负责任采用。
高风险场景不是不能用AI,而是不能“无治理地用AI”
SHRM框架中最值得HR关注的是“高风险场景的有限强制要求”。它没有主张对所有AI用途都进行同等监管,而是把重点放在那些可能影响招聘、晋升、终止雇佣、薪酬等重大雇佣结果的场景。这是一种非常现实的治理思路。企业内部AI应用越来越多,如果每一个AI辅助写作、每一次会议纪要生成、每一次知识库问答都按照最高风险标准审批,AI落地会被流程拖垮。但如果招聘、晋升、绩效、薪酬这些场景完全不设边界,风险又会直接传导到员工权益和组织信任。
因此,企业需要建立“分层治理”而不是“平均治理”。低风险场景鼓励探索,中风险场景要求审批和留痕,高风险场景必须具备透明度、人工复核、偏差审查、结果申诉和责任归属。这也是NIST AI风险管理框架能够被SHRM引用的原因。NIST AI RMF强调通过治理、映射、测量和管理来处理AI风险,本质上是帮助组织把AI风险管理从临时判断变成可持续的管理流程。
对HR来说,一个可执行的AI职场政策至少需要区分三类场景。
第一类是效率辅助型场景,例如起草JD、生成面试问题、整理培训资料、汇总员工调研开放题。这类场景可以鼓励使用,但应明确数据安全和人工审核要求。
第二类是判断增强型场景,例如候选人匹配、人才盘点、继任梯队分析、离职风险预测、学习路径推荐。这类场景可以使用,但必须说明AI只是辅助判断,不能直接形成最终结论。
第三类是重大影响型场景,例如AI参与录用、晋升、调薪、绩效评级、岗位调整、劳动关系处理。这类场景必须纳入高风险治理,要求事前评估、过程留痕、人工复核、结果解释和申诉渠道。
真正的问题不是AI是否参与管理,而是企业是否清楚地知道:AI在哪些场景只能建议,在哪些场景必须沉默,在哪些场景绝不能成为最终决定者。
这背后考验的是HR的制度设计能力。过去,HR政策主要围绕人来设计;未来,HR政策还要围绕“人机共同决策”来设计。谁提出建议,谁做最终判断,谁对结果负责,员工如何知情,系统如何被审计,这些都将成为AI时代HR治理的新基础设施。

广告
员工信任,是AI落地最大的隐性成本
SHRM在政策要点中提到,AI已经在重塑工作如何被完成、岗位如何被设计、雇主如何招聘、培训和管理员工;如果缺乏清晰的劳动力导向政策,快速采用AI可能扩大技能差距、制造雇主不确定性,并让员工对变化缺乏准备。这句话对HR尤其重要。因为AI落地的最大阻力,常常不是工具不好用,而是员工不知道企业到底想用AI做什么。
如果员工只看到公司不断采购AI工具,却没有看到相应的培训、沟通和岗位发展路径,AI就很容易被理解为“监控”“筛选”“替代”“降本”的代名词。即使企业的真实目的并非如此,缺乏沟通也会让员工产生防御性心理。
SHRM《The State of AI in HR 2026》显示,AI显著提升了HR专业人员的效率、创造力和工作质量:87%的受访者认为AI提升了效率,75%认为提升了工作质量,70%认为提升了创造力;但在职业安全和职业前景上,多数人认为AI尚未产生明显影响,77%表示AI对其工作安全没有影响,73%表示对职业前景没有影响。
这组数据说明一个重要事实:AI并不必然带来员工恐慌。只要企业把AI定位为能力增强,把员工纳入转型过程,把培训和岗位重塑同步推进,AI可以成为提升工作质量的工具,而不是摧毁信任的信号。但如果企业只强调效率,不解释边界;只上线工具,不设计培训;只要求使用,不承认学习曲线;只统计使用频次,不关注工作价值,AI就会变成新的管理压力源。
这也是为什么“AI使用率”不能成为唯一指标。很多企业会想统计员工用了多少次AI、生成了多少内容、节约了多少时间,但真正有价值的问题应该是:AI是否改善了客户体验?是否减少了低价值重复劳动?是否让员工获得了新技能?是否让管理决策更透明?是否让团队有更多时间做高质量工作?AI转型不是把员工推向工具,而是让工具回到人的工作价值中。
HR在这里扮演的角色,不是单纯推动采用率,而是设计员工愿意参与、能够学习、看得到收益的AI转型体验。员工需要知道公司为什么使用AI,哪些工作会改变,哪些能力更重要,哪些岗位会被重新定义,自己如何获得支持。没有这些,AI再先进,也很难变成组织能力。
再技能化,不是AI转型的配套动作,而是主战场
SHRM框架把“劳动力准备与再技能化”列为八大支柱之一,并明确提出,需要围绕技能提升、岗位重设和培训计划建立有针对性的国家行动,包括通过资助和激励推动雇主、教育机构和劳动力发展组织合作。
更关键的是数据。SHRM指出,近七成HR专业人士表示全职岗位招聘困难;在出现新技能需求的组织中,66%将技术变化列为主要驱动因素,比2025年上升12个百分点。同时,在使用AI的组织中,AI更可能改变岗位职责而不是带来岗位消失:其组织影响“改变岗位职责”的可能性是“岗位流失”的5.7倍;57%的组织表示AI创造了技能提升或再技能化机会,而报告岗位流失的比例为7%。
这组数据对企业高管和HR负责人有直接启示:AI真正带来的不是一个简单的“增员或减员”问题,而是岗位内容、技能结构和人才供给方式的重构。
企业不能只问“AI能替代多少人”,更应该问“AI会改变多少岗位的任务组合”。一个招聘专员未来可能不再花大量时间筛简历,而是更多负责人才画像设计、候选人关系经营和面试质量控制;一个培训经理未来可能不再主要组织课程,而是设计基于岗位任务的AI学习路径和能力验证机制;一个HRBP未来可能不再只做业务支持,而是成为业务团队AI转型中的组织设计顾问。
这意味着再技能化不能停留在“开几门AI工具课”。企业真正需要的是任务层面的技能重构:哪些任务被AI增强,哪些任务被AI自动化,哪些任务需要人做更高阶判断,哪些岗位需要重新定义绩效标准。从这个角度看,AI培训至少要分成三层。
第一层是全员AI素养,解决员工是否理解AI边界、风险、提示词、数据安全和基本使用方法。
第二层是岗位AI能力,围绕岗位任务重新设计工作流程,例如招聘、培训、绩效、员工服务、销售、客服、财务、人力规划等不同场景如何使用AI。
第三层是组织AI转型能力,面向管理者和HR核心团队,训练他们如何识别高价值场景、重构流程、设定治理规则、衡量业务结果和管理员工心理预期。
AI时代真正稀缺的人才,不一定是会写提示词的人,而是能够把AI、业务流程和人的能力重新组合起来的人。
中国企业也正在面对同一道题:技术升级不能替代用工责任
最近中国的司法案例也在提醒企业,AI转型不能只从效率逻辑出发。杭州中院发布的涉AI劳动争议案例显示,某员工从事AI大模型问答质检工作,月薪2.5万元,公司以项目受AI技术冲击为由协商调岗,将薪资降至1.5万元,协商不成后解除劳动合同。法院认为,企业主动引入AI技术属于为适应市场竞争而实施的技术革新,并不必然等同于导致劳动合同无法履行的“客观情况重大变化”;大幅降薪方案也不构成合理协商方案,最终判定公司违法解除并支付赔偿。
这一案例并不意味着企业不能推进AI,也不意味着岗位永远不能调整。它真正传递的信号是:企业可以技术升级,但不能把技术升级的全部成本转嫁给员工;企业可以调整岗位,但需要合理协商、合理安排和合法程序;企业可以追求效率,但不能让AI成为规避用工责任的理由。
这与SHRM框架中的“劳动力准备”“员工保护”“高风险场景人工监督”在底层逻辑上是相通的。无论是美国政策讨论,还是中国司法实践,都在走向同一个方向:AI进入职场之后,企业的管理自由与员工权益保护必须重新平衡。
对中国企业而言,这一点尤其现实。很多企业正在用AI进行客服、内容、营销、研发、运营、招聘和培训的效率改造。如果没有提前设计岗位调整机制、培训转岗机制、沟通机制和风险评估机制,AI转型很容易在劳动关系层面形成新的争议。
HR负责人需要在AI项目启动前就进入决策桌,而不是等到岗位调整、薪酬变化、员工投诉、劳动争议出现之后再被动处理。AI项目立项时,除了技术评估和ROI测算,还应该同步评估岗位影响:哪些岗位任务会变化,是否涉及调岗降薪,是否需要培训支持,是否有合理过渡期,是否需要员工告知与协商,是否可能影响绩效和晋升公平。企业不是不能追求效率,而是要把效率提升放在更完整的组织责任框架里。没有员工转型路径的AI转型,最终很容易把技术红利变成组织摩擦。
HR要建立自己的AI治理清单
SHRM框架中还有一个容易被忽略的支柱:降低雇主负担。SHRM强调,AI披露、记录和报告义务应保持务实、高效,并尽可能整合到现有雇主流程中,而不是要求企业建立完全独立、重复且沉重的合规系统。
这对企业内部也有启发。AI治理不能变成“为了治理而治理”。如果企业把AI审批设计得过于复杂,业务会绕开流程;如果制度写得过于抽象,员工不会执行;如果责任分工不清,最后所有风险都会落到HR和法务身上。
更可行的方式,是在现有HR管理体系中嵌入AI治理,而不是另起炉灶。招聘流程中加入AI工具申报和候选人评估复核;绩效流程中加入AI分析结果的人工解释义务;培训流程中加入AI素养课程;供应商采购中加入模型说明、数据处理、偏差评估和审计配合条款;员工手册中加入AI使用边界;劳动关系流程中加入岗位变化影响评估。
HR可以从五个问题开始建立企业级AI治理清单。
第一,AI系统清单。企业正在使用哪些AI工具,分别由哪个部门采购、部署和管理,是否涉及员工数据、候选人数据或客户数据。
第二,场景风险分级。每个AI工具是效率辅助、判断增强还是重大影响场景,是否涉及招聘、晋升、绩效、薪酬、解雇、排班和员工监控。
第三,人工监督机制。AI输出是否必须由管理者或HR复核,复核人是否具备足够背景信息,最终责任是否明确归属到人。
第四,员工透明度。员工或候选人是否知道AI被用于相关流程,是否有机会了解影响其结果的主要因素,是否有申诉或复议渠道。
第五,供应商责任。第三方AI工具是否能够提供模型说明、数据来源、测试结果、偏差控制、信息安全和合规配合文件。
这五件事听起来并不复杂,但它们决定了企业是“使用AI”,还是“治理AI”。前者只是工具采购,后者才是组织能力。
AI时代,CHRO要成为组织信任的架构师
SHRM框架的现实意义,是把AI政策从技术部门的语言翻译成了组织管理的语言。它讨论的不是模型参数,而是职场场景;不是算法性能,而是员工保护;不是简单效率,而是劳动力准备;不是单个工具,而是跨组织、跨岗位、跨利益相关方的治理系统。这意味着CHRO在AI时代的角色正在发生变化。
过去,CHRO更多负责人才供给、组织文化、绩效激励、员工关系和领导力发展。现在,这些议题正在被AI重新穿透。人才供给要考虑AI如何改变岗位需求;组织文化要面对员工对AI的信任与焦虑;绩效激励要重新定义人机协同下的贡献;员工关系要处理技术升级带来的岗位变化;领导力发展要加入AI判断力和AI治理力。
AI时代的CHRO,不只是人才负责人,更是组织信任的架构师。
这个角色要求HR既理解业务效率,也理解员工体验;既能推动技术应用,也能守住治理边界;既能帮助企业提升生产率,也能让员工看到自己的成长路径。它不是站在AI对面,也不是盲目站在AI一边,而是让AI成为组织能力升级的一部分。
对高管团队而言,真正值得讨论的不是“HR是否需要AI”,而是“企业是否需要一个由HR深度参与的AI治理体系”。答案显然是肯定的。因为AI最终改变的不是工具箱,而是组织运行方式。
企业下一阶段的AI竞争,也不会只看谁部署了更多系统,而会看谁能更快完成三件事:把AI嵌入高价值流程,把员工能力迁移到新任务,把治理机制前置到AI决策之前。
SHRM的框架提醒我们,AI职场政策不是限制创新,而是让创新可持续。没有政策,AI会变成零散试点;没有治理,AI会侵蚀信任;没有再技能化,AI会加剧焦虑;没有HR参与,AI很难真正进入组织深处。
未来,真正领先的企业不会把AI转型理解为“用机器替代人”,而会把它理解为“重新设计人、技术与组织之间的协作关系”。这才是SHRM这份框架给企业高管和HR负责人的最大启示:AI进入职场之后,企业最需要建设的不是一个更强大的工具库,而是一套更成熟的组织治理能力。
活动名称 | 时间 | 地点 |




夜雨聆风