
作为数字化领域的领军企业,阿里巴巴始终将AI治理视为重中之重,并在过去近十年间推动了一系列负责任AI发展举措。这些举措不仅涵盖提升AI安全性与技术稳定性、关注科技伦理并设立专门委员会及发布伦理准则,还有对生成式AI的全面治理。
近期,埃森哲与阿里研究院院长袁媛展开对谈。在访谈中,她分享了对全球AI治理趋势的观察、中国企业在技术发展与伦理规范之间的平衡思路,以及中国科技企业如何在出海过程中讲好自己的技术伦理叙事。

(阿里研究院院长袁媛)
《展望》:在过去十几年,阿里如何推动和实践负责任AI?
袁媛:阿里的AI治理工作不局限在专职人员,而是在产研、安全、法务、政府与公众关系、公益等各个组织中有相应成员,从而将AI治理能力融入各自的实际工作中。阿里巴巴在推动和实践负责任AI方面采取了一系列措施,大致可分为三个阶段:
第一阶段(2011年至2018年):聚焦AI安全,提升算法的可靠性与稳定性,并利用数据和算法解决电商业务及社会责任中的难题,如打假和知识产权保护。同时支持经营范畴外的算法向善应用,如开发了团圆系统帮助找回失踪儿童。
第二阶段(2019年至2022年):随着公众对隐私保护和算法公平的关注度提高,阿里开始以科技伦理为牵引进行AI治理,并于2022年6月成立科技伦理治理委员会,同时设立外部顾问委员会提供咨询建议。委员会发布了六项科技伦理准则,并在多个AI安全领域取得成效。
第三阶段(2022年至今):生成式AI的快速发展促使阿里意识到新一代AI技术的特点与影响范围有所不同。为实现更全面的治理,阿里将科技伦理治理委员会从CTO条线调整至集团可持续发展委员会(ESG)下。这一点很重要,意味着负责任AI不仅包含守护合规底线,而且成为企业战略的一部分。同时,为了让科技伦理更好地融入AI科技研发应用的工作流程之中,相关工作主导者仍然是集团CTO。
在实践层面,我们也在推动法务、合规、技术和业务的协同机制。负责任AI不能只依赖一个部门兜底,否则它很容易被视为成本负担,而不是价值投资。
《展望》:阿里是否有计划推出与负责任AI相关的培训或考试,帮助员工更好地理解负责任AI理念?
袁媛:阿里确实开展了相关的培训和考试,但我们的初衷不是通过考试来设定合格门槛,而是引导大家通过参与提升对负责任AI的认知,尤其是在技术与伦理交叉的复杂场景中。
我们曾经设计过一个富有启发性的问卷,其中一个问题是:如果一位医生将带有病人信息的笔记本遗忘在出租车上,责任应该由谁来承担?这个问题的本质远比表面复杂。比如,医院为何允许医生携带敏感信息外出?出租车司机有没有归还义务?这其实是一个复杂的社会性问题。真正有效的治理目标应当是降低风险概率、减少损害后果,这就需要系统性地考虑制度设计、技术防控与伦理文化等多因素的协同。
基于这些讨论,我们在培训设计中不断加入更多案例式、反思性的内容,鼓励参与者意识到:员工们不仅是解决方案的一部分,也可能是问题的一部分。负责任AI的关键不是强调技术人员必须负责,而是帮助他们认识到:不能依赖技术手段来解决一切问题。
《展望》:随着生成式AI的高速发展,您如何看待各国在AI风险治理上的差异与应对策略?
袁媛:各国在负责任AI的原则方面已基本达成共识,然而实际面临的风险类型、优先级和应对路径却并不相同。
以图像生成技术为例,在GPT-4尚未具备图像生成能力时,版权争议并不显著;但随着GPT-4o版本这类多模态模型的发布,其能够生成高质量图像,使版权侵权问题迅速成为国际讨论的焦点,各国存在着显著的差异。
在中国,技术发展被置于高度重要的位置。斯坦福大学发布的《AI指数》报告显示,中国公众对AI技术的乐观度连续两年位居全球首位。这种乐观态度背后有三大关键因素:第一,数字化红利的切身体验;第二,“不发展是最大的不安全”的主流认知;第三,既有治理体系的系统性与执行力。
值得注意的是,这种认知格局并非一成不变,全球范围内围绕AI的认知、政策与市场格局也在不断演化。在科技伦理和负责任AI的整体角度下,我们必须接受这种不确定性,并认识到我们面对的是一个复杂且动态的系统。这个系统不仅涉及技术层面的考量,还涉及经济和社会层面的判断。我们应关注不同国家或地区对风险的共识形成以及多方协作机制的有效性。
从全球企业的角度看,针对AI风险和治理议题,可以从以下两个方面积极参与并发声:
在合规与伦理框架的基础上,进一步讨论如何在保障安全的前提下最大化AI的社会影响力,实现“有益的创新”与“有效的风险防控”动态平衡;
构建全球共识与本地实践之间的桥梁:虽然各国面临的AI风险在类型上有一定相似性,但应对方式各不相同。企业应在尊重差异的前提下,探索制定一套具有普适价值的企业原则和技术底线。
《展望》:阿里研究院在进行出海业务的技术研究时,是否也充分考虑了海外的法律法规和伦理要求?
袁媛:正如我们在负责任AI培训中强调,不能依赖单一角色解决复杂问题,面对国际化过程中的治理挑战,也同样需要系统性、多维度的应对。
具体来说,我们目前在不同市场观察到的关注点差异较大。例如,在东南亚,我们尚未观察到显著的伦理诉求,那里的关注点更多集中在小语种问题上,特别是如何帮助商家在低代码多语言环境中顺利出海。
为了更好地理解和应对这些差异,我们积极参与了多个国际会议,例如中美AI治理合作会议,以及与美国、欧洲的主要研究机构交流。这帮助我们把握全球在AI治理上的实用主义趋势,强调AI治理机制的可落地性和可执行性。
今年,阿里内部特别关注两个方向:一是内部反馈机制的强化,进而优化治理机制;二是对当地市场的深入研究,例如在中国,我们会关注数字水印的处理方式及其要求,以及水印对用户体验可能产生的影响。
《展望》:对于中国企业如何做好AI治理,您有哪些建议?
袁媛:我有三个建议:
第一,建立共识与透明对话机制。关键在于让所有相关方能够在一个共同的语境中进行对话。例如在透明度问题上,今年的讨论已经逐步聚焦到“开源协议”和“开源程度”上,这将有助于提升整体的透明度水平。头部企业应主动牵头建立相关机制。同时,AI评估的透明度必须成为实施标准,这要求我们在求同存异的基础上进行合作。我们应该致力于形成一种能够实现多方交互的评估模式,这种交互不仅仅是技术层面的,还应包括设计逻辑和实施过程,共同推动建立人类社会长期认可的共识。
第二,转变对AI治理的认知。AI治理的根源问题,可以归结为成本与信息不对称。当治理成本过高、信息披露不足时,就容易引发不安全或恶意问题。因此,降低信息成本,不仅有助于提升系统安全性,也能建立信任基础。当然,这种改善是渐进式的,需要企业持续投入。更重要的是,企业需要摆脱“治理等于负担”的传统认知。AI治理不是被动应对监管的成本,也不是为了提升品牌形象的营销预算,而是负责任创新的基本表现。
在实践层面,我们发现“事件驱动”往往是推动共识最有效的方式。企业可以通过主动的调研和培训,在设计阶段尽可能将治理融入现有业务中,让最重要的业务部门承担责任。
第三,主动发声,讲好中国在AI治理中的独特故事。在国际化过程中,我们常常面临不同国家对AI的认知差异,这种差异不应被回避,而应成为交流与共识形成的契机。发出中国的声音,讲好中国的故事,既能展示我们的透明度,也有助于提升全球理解和信任。
从机制推动角度来看,我建议通过行业协会等官方/非官方渠道,主动推动负责任AI议题的行业协作。
因此,企业在AI治理上的角色,不只是规则的遵循者,更应该是规则的建设者。面对技术的高速演进,我们不能仅仅等待监管到位,而应凭借自身在专业能力、市场实践和国际理解上的积累,主动为政府与行业提供建设性意见,这也是企业参与AI全球治理的关键一步。
欢迎点击下方图片查看《展望》更多精彩内容。
《展望》创刊于1999年,是埃森哲面向中国市场推出的旗舰刊物。其高端访谈栏目定期邀请领军企业负责人和行业意见领袖,围绕企业重塑增长、加速转型等议题,分享行业最佳实践与真知灼见。
延伸阅读:





业务联系:

夜雨聆风