AI企业做公益:“技术向善” 到底承诺了什么?
关注萤火集,让善意落地,让项目发光

【导读】:
“技术向善”四个字,过去三年里在中国AI圈反复使用。从大模型公司到自动驾驶团队、从计算机视觉项目到机器学习平台,很多AI公司都会提及这四个字。但是关于“具体体现在哪里”,能给出清晰、具体答案的公司不多。更多的是说“我们捐了一批AI教育课程给乡村学校”“我们和某基金会合作用AI识别老年健康问题”“我们的大模型免费给残障人士使用”等等,这些答案不能说错,但这些行为和这家公司的核心技术能力之间,关系不够紧密。
AI企业的“善”,大多数时候其实是被“外挂”上去的。外挂在公关层面、外挂在项目书里、或是外挂在发布会的宣传片里。这些“善”和企业每天在做的真正核心业务之间,没有黏性的连接。这种“善”是被外挂的,它就注定走不远,因为没有任何业务部门会为它的可持续性负责,自然也就没有任何人敢说它不好。

“技术向善”意味着什么?
“技术向善”是一个非常精明的口号,它把“技术”和“善”勾兑到了一起,听上去既有产业感、又有道德感。这四个字其实承诺了三件不同层级的事:
第一,技术本身不会作恶。这是底线承诺,对应的是AI伦理、数据合规、算法歧视防范等专业的、防御性动作。按道理说,如果这一层做不到,那么这个公司其实不该出来做公益、不应该大肆宣扬社会责任,得先把自己合规问题处理好再说。但是,现实,回想一下,你买的东西是不是不同平台标价不一样?是否多次搜索后就被涨价了?是不是讨论过某样东西后打开手机就会推送广告给你……

第二,技术能够创造正外部性。这一层是中间层,什么意思呢?就是说这家公司的技术,在为付费客户解决问题的同时,所溢出的能力可以为付费能力的群体提供帮助,比如医疗AI给基层医院、教育AI给乡村学校、视觉AI给视障人士等帮扶等等。这一层其实是AI公益的主战场。
第三,技术能够主动塑造一个更好的社会形态。这一层最高级,要强调这个“主动”,就是说这家公司不只是被动地“不作恶”,也不只是“溢出帮助”,而是主动用其核心技术真正介入某个社会公共问题,比如用AI改善公共服务效率、用AI提升危机响应能力、用AI优化社会基础设施等等。
绝大多数AI公司,自我宣称的是第三层,实际做的是第一层,偶尔做做第二层的表层动作。但往往连第一层都很难真正做到、做好。这种承诺与动作之间的巨大落差,就是“技术向善“被越来越多人质疑的根本原因。

AI企业做公益的三个问题
▶问题一:技术下沉的成本谁来承担?
很多AI公司说“我们的产品免费给公益机构用“。这句话听上去很慷慨,但仔细想想就会发现,免费许可并不等于零成本的交付。

(图为阿里巴巴公益发起的“少年云助学计划”。该项目已在全国25个省份建成300余间AI云教室,惠及超过30万名乡村师生)
比如,一个农村小学拿到一套AI教育系统的免费授权,然后呢??学校没有软硬件部署能力、没有运维能力、没有内容适配能力。系统装上之后根本用不起来。这种“免费”,对受益方而言是一种隐性的负担——既消耗了他们本就稀缺的IT人力,又给了他们一个无法兑现的期待。
真正的技术下沉,需要明确谁来部署、谁来培训、谁来持续运维、谁来迭代。这些动作背后都是真金白银的成本,如果AI公司没有把这部分成本预算化、专业化,那么所谓的“免费授权”就是一种制造虚假希望的伪善,更可能是借公益做营销。当前而言,这种情况可能还不在少数。
判断一个AI公益项目是不是认真的,就看一条:它有没有为“产品之外的交付”单独去配置预算和人力。没有这一项,基本可以判定是伪善项目。
▶ 问题二:数据伦理的边界怎么划定?
AI绕不开数据。没有数据就没有模型,没有模型就没有所谓的智能服务。但公益场景下的数据来源极其敏感——患者数据、儿童数据、贫困群体数据、特殊需求人群数据,都是高敏感属性,在“敏感”和“隐私”之间,往往是隐晦不清的。
这就出现了一个尖锐的矛盾:AI企业做公益,本身有获取这些稀缺数据的强烈动机。一旦这种动机不被严格约束,公益项目就会从“用技术帮助弱势群体”异化为“以公益之名采集稀缺数据”。

判断的标准也很容易,就是看这些数据有没有回流到公司的产品中。如果回流了,那有没有获得真正知情的同意?所谓“同意”是不是被设计成“不同意就拿不到服务”的胁迫式的、默认服务协议?
中国AI公益领域,这条边界至今没有清晰的行业共识。每家公司都在打擦边球,每家基金会都在睁只眼闭只眼。
▶ 问题三:能力供给的可持续性靠什么保障?
AI技术迭代速度极快,这是一个现实。一个项目今年用的是某代架构,可能明年就过时了;今年的还能称得上是最佳实践,明年可能就变成了落后教材。这种快节奏给AI公益带来一个独特的难题——项目的“半衰期”极短。
比如一个三年期的AI公益项目,执行到第二年的时候,底层技术可能已经迭代了两轮,可能最初的方案设计已经过时,但合同还在执行、报告还要按原设计交付。结果就是,大量AI公益项目在第二年就开始“形式化”,得按合同走完动作,但实际上谁都知道这套东西已经不是最优解了。
这个问题的解法,不是把项目周期缩短,而是在项目设计阶段就嵌入技术迭代条款,比如每六个月一次技术对齐、每年一次方案重构、每两年一次成果重估。不过,能做到这一点的AI公益项目,凤毛麟角。

AI公益正确的三个动作
那么,真正做对的AI公益,是什么样的呢?观察国内外几个做得比较好的项目,有三个共同特征。
第一个特征:场景嵌入,而不是产品输出。不是把现有产品打个公益版本送出去,而是和受益方一起重新定义场景需求,共同开发场景化的解决方案。比如,把通用大模型直接给乡村教师用,效果有限;但和乡村教师一起设计“备课助手+方言适配+本地教材问答”的专属工具,这个效果是完全不同的。前者是产品输出,后者是场景嵌入。这两者之间的差距,决定了项目的存活率。

腾讯“触梦计划”与一线乡村教师、生态伙伴共同打造“腾讯未来教室AI共建平台”。项目不只是简单捐赠通用AI工具,而是邀请教师、技术团队和玩家共同参与,针对乡村教育场景开发适配本地教材、方言支持和AI备课助手的专属解决方案,实现场景深度嵌入和共创,目前已在多个农村学校落地并持续迭代。
第二个动作:能力开放,而不是数据索取。真正可信的AI公益,数据流向是单向的。企业的能力下沉给场景,但场景的数据不必然回流给企业。这种克制极难,但它是建立长期信任的唯一方式。一家公司如果做不到这一点,就不该碰高敏感的公益领域。

Be My Eyes与OpenAI合作推出的Be My AI功能,为全球盲人和低视力用户提供实时图像描述和视觉辅助服务。Be My Eyes明确强化隐私政策:用户上传的照片和查询不会被用于训练AI模型,也不允许AI提供商(OpenAI等)将这些数据用于训练;数据主要用于即时响应服务,处理后不做长期存储或商业回流。这种单向能力开放模式,优先保障受益方隐私和信任,让数百万视障人士获得强大AI能力的同时,避免了以公益为名采集敏感数据的风险,赢得了社区长期信赖。
Be My Eyes是一款于2015年上线的公益应用,由丹麦视障开发者 Hans Jørgen Wiberg 与 Robocat 工作室共同发起。其核心功能是通过视频通话,将全球视障人士与视力正常的志愿者连接起来,由志愿者充当“远程眼睛”,帮助解决生活中的难题。内置的 Be My AI 功能,可上传照片,由 AI 用多种语言描述画面内容,适合不希望立即与人通话的场景。
第三个动作:长期共建,而不是项目交付。最容易被忽视的一点。绝大多数AI公益项目按“项目交付”逻辑设计,比如三年期、有节点、有验收、做完就走。但场景方(受助方)真正需要的是长期能力陪伴。所以最好的做法是:把公益项目设计成“基础设施”而不是“产品”,企业的角色从“交付方”变成“共建方”。

Microsoft Rural Health AI Innovation Lab (RHAIL) 是长期共建的项目典型。微软实验室与美国农村医院、卫生领导者共同组建工作组,针对农村医疗中实际痛点,诸如理赔拒付处理、转诊流程优化等方面共同开发AI工具。值得关注的是,该项目不设固定交付截止,而是通过多期项目持续迭代:农村医疗机构参与需求定义、工具测试和本地化调整,Microsoft提供平台、技术更新和培训支持。目前已有多家农村医院使用这些免费AI工具提升运营效率,并计划扩展为可复制的长期基础设施,助力农村医疗体系的持续韧性建设,而非一次性项目交付。

“善”由谁定义?
有一个问题必须提出来,就是“技术向善”这四个字,“善”的定义权在谁手里?如果“善”是企业自己定义的,那就是一种自我授权的道德表演。如果“善”是公关公司定义的,那就是一种品牌策略包装。如果“善“是某个基金会定义的,那这就是一种第三方背书购买。
真正的“善“,必须由那些被技术影响的人来定义——农村学生、基层医生、独居老人、视障人士、罕见病患者……他们认为这件事真的对自己有益,这才叫善。这正是公益最难的一关:把“善”的定义权,从企业自己手里,交还给真正的受益人。
但只有走到这一步,AI企业才真的开始做公益,而不是用公益做营销。
夜雨聆风