聊聊AI伦理,AI真的会有偏见吗?
2018年,亚马逊悄悄关掉了一个内部AI招聘项目。这个系统本来是要帮公司自动筛选简历的,结果工程师们发现,它在给女性候选人打分时系统性地偏低。
2018年,亚马逊悄悄关掉了一个内部AI招聘项目。这个系统本来是要帮公司自动筛选简历的,结果工程师们发现,它在给女性候选人打分时系统性地偏低。原因很简单,这个模型是用过去十年亚马逊的历史招聘数据训练出来的,而那十年里,科技岗位的录用者绝大多数是男性。AI学会了一件事,男性简历更「正确」。
这不是某个工程师故意写进去的歧视代码。没有人在代码里写「女性减分」。但结果就是这样。
这件事我觉得很值得认真聊聊,因为它戳破了一个很多人默认的假设,AI是客观的,算法是中立的,机器不像人会有情绪和偏见。这个假设,其实从一开始就站不住脚。
“
偏见不是AI的bug,它是数据的镜子
”
•你想想看,一个机器学习模型是怎么工作的。它吃进去海量数据,从数据里找规律,然后用这些规律做预测和决策。整个过程听起来非常「科学」。但问题就出在那堆数据上。
数据是人类活动留下的痕迹。而人类活动本身就充满了历史性的不平等。美国司法系统有一个叫COMPAS的算法,被很多法院用来预测罪犯的再犯风险,辅助量刑决策。ProPublica在2016年做了一个调查,发现这个系统对黑人被告的高风险误判率,几乎是白人被告的两倍。这个系统没有直接把种族作为输入变量,但它用的其他特征,比如居住地区、家庭成员犯罪记录、教育程度,这些变量本身就和种族高度相关,因为历史上的系统性歧视早就把这些关联刻进了社会结构里。
说到底,你喂给AI的数据,本身就是一个有偏见的世界的快照。AI把这个世界的规律学得越好,它就越精确地复现了这个世界的偏见。这不是算法失灵,这恰恰是算法在正常工作。
语言模型的偏见,比你想象的更隐蔽
图像识别、信用评分这类偏见相对还好追踪,因为你能看到输入输出,能做统计检验。更让人头疼的是大语言模型里的偏见,它藏得深,也更难量化。
GPT、Claude、Gemini这类模型是在互联网文本上训练的。互联网的文本分布极不均匀,英语内容占压倒性多数,男性视角的叙述占压倒性多数,西方文化的框架占压倒性多数。这就造成一个现象,当你用这些模型处理非英语语境的问题,或者涉及非西方文化的问题时,模型的表现质量会明显下降,而且它给出的答案会不自觉地套用一套「默认框架」。
还有一种更微妙的偏见叫做「刻板印象放大」。研究者发现,语言模型在补全「护士他...」这类句子时,会倾向于使用女性代词,而「工程师他...」则倾向于男性。这些关联来自训练数据里的统计规律,但当这些规律被部署到实际产品里,它们就开始默默强化社会对职业性别的刻板印象。AI在这里扮演的不是一面平镜,而是一个放大镜。
「对齐」能解决偏见问题吗,不一定
现在AI公司都在做所谓的「对齐」,通过人类反馈强化学习(RLHF)等方式,让模型的输出更符合人类价值观。这确实能压制很多明显的有害输出。但对齐本身也带来了新问题。
那结果会怎样呢,你找一群标注员来标注「什么是好的回答」,这群标注员的构成本身就有偏差。OpenAI、Anthropic这类公司的标注员主要分布在美国和肯尼亚,他们的文化背景、价值判断、对「冒犯性内容」的边界认定,会直接影响模型的行为。一个对美国标注员来说「足够安全」的回答,对其他文化背景的用户来说可能是另一回事。
更棘手的是,过度对齐会产生「过度谨慎」的问题。模型为了规避任何潜在争议,开始拒绝很多完全合理的请求,或者给出极度模糊的答案。坦率的讲,这也是一种偏见,只不过方向变了,它偏向了「不得罪任何人」,而代价是实用性大打折扣,而且这种谨慎本身在不同话题上的分布也是不均匀的。
谁来定义「无偏见」,这才是真正的哲学难题
我们聊了这么多技术层面的问题,但其实最难的部分不是技术。
「无偏见」本身就是一个充满争议的概念。统计学意义上的公平有好几种定义,校准公平、机会均等、人口均等,这几种定义在数学上是互相冲突的,你无法同时满足所有人对公平的要求。这不是工程能力的问题,这是价值观的根本分歧。
你想想看,一个贷款审批模型,如果它对不同群体的违约预测准确率相同,这是公平吗,有人说是。但如果因为历史原因某个群体的历史贷款记录本来就少,模型的置信度本来就低,那这种「准确率相同」背后隐藏的不确定性是不平等的。谁来做这个价值判断,工程师吗,公司法务吗,还是监管机构。
这其实是一个政治问题披着技术外衣出现。当一家科技公司说「我们的AI是公平的」,这句话本身就值得追问,公平对谁,由谁来评判,用什么标准。
AI有偏见吗,有,而且这是结构性的,不是偶发的。但把这个问题完全甩给技术去解决,本身就是在回避真正困难的部分。技术可以让偏见更透明,可以让某些偏见更难发生,但它解决不了一个根本问题,我们作为社会,想要什么样的公平。
这个问题没有标准答案。但我觉得,至少要先承认AI不是客观的,它是我们这个社会的产物。当我们把越来越多的决策权交给算法,我们其实是在把这个问题的回答权,悄悄转移给了那些设计算法、收集数据、标注答案的少数人。
这件事,值得更多人知道。
夜雨聆风