你有没有遇到过这种怪事?你和朋友用同一款App搜索同一件商品,你们的手机屏幕上一模一样的操作,但最后看到的价格,居然不一样。你心里咯噔一下:难道……它看人下菜碟?恭喜你,你猜对了。
那个"懂你"的App,可能在偷偷给你加价
先说个真实发生的事。
去年双十一,我同事小王想买一双跑鞋。他先在自己手机上搜,页面显示打完折389块。他觉得还行,但想再比比价,就让旁边的同事小李帮忙搜了一下——同一款鞋,同一个链接,小李的手机上显示的是459块。
小王当时就懵了:凭什么?
后来他们研究了半天,发现问题可能出在"用户画像"上。小王是平台的资深用户,买过很多东西但退货率极低;小李是新用户,还从没在平台上买过东西。
平台算法推测:小王是个"精明买家",给他看低价,他才会下单;小李是"潜在新客",先让他看到贵一点的价格,等他犹豫了,再给他发优惠券——那感觉,就像白捡了几十块。
你以为你在"比价",其实你在和一套专门研究你的算法斗智斗勇。
这就是传说中的"个性化定价"——同一个商品,不同人看到的价格不同。不是因为你砍价能力差,而是因为算法觉得你"值得"。
算法凭什么"看人下菜碟"?
你可能会问:算法怎么知道谁"值得"?
这就涉及到AI的核心能力了:它会"读人"。
想象一下,你去逛商场。销售员看你穿什么衣服、背什么包、说话什么气质,大概能判断出你是什么消费水平,然后决定是给你推荐高档货还是打折款。
算法干的是同样的事——只不过它读取的不是你的穿着,而是你手机里的一举一动。
你平时买什么价位的商品?你退货的频率高不高?你付款的时候用的是花呗还是信用卡?你换手机的频率是多久一次?你住的小区在哪个地段?
这些零零碎碎的信息,在算法的眼里拼成了一幅完整的画像:你是个什么样的人?你愿意为什么花钱?你对价格敏感不敏感?
有了这幅画像,算法就可以"看人下菜碟"了。给你推便宜的,是因为算过你会因为价格低而下单;给他推贵的,是因为算过他可能不那么在意钱,更在意时间和服务。
听起来好像很"智能"对吧?但问题来了:这套逻辑,真的公平吗?
比价格歧视更隐蔽的,是"服务歧视"
个性化定价只是"看人下菜碟"的初级版本。更隐蔽的,是服务质量的差异化。
你有没有这种感觉:你是某个平台的老用户,但感觉客服对你的态度,反而没有对新用户那么热情了?
这不一定是你的错觉。
有些平台的客服系统,会根据用户的"价值评分"分配资源。高价值用户(买的多、退的少、投诉少)会被标记为"重点客户",遇到问题优先响应、处理更快;普通用户可能就要多等一会儿,或者被转接到智能客服"先挡一挡"。
你说,这合理吗?
从商业角度,好像很"合理"——谁贡献多,谁享受好服务,天经地义。
但从伦理角度,这就有意思了:一个平台的服务质量,居然取决于你口袋里有多少钱,而不是你"需要"多少帮助。
穷人用贵、服务差;富人用便宜(或者被"优惠"装在套路里)、服务好。这不就是现实版的"嫌贫爱富"吗?
AI没有价值观,但设计AI的人有。当这套逻辑被写进算法里,就变成了系统性的歧视。
当AI学会了"贴标签",谁在受害?
算法歧视的受害者,往往是那些"标签不好"的人。
我看过一个研究:美国有保险公司用AI算法评估驾驶风险,结果发现系统给某些社区的保费定价更高——不是因为那些社区的人开车更危险,而是因为那些社区的居民,收入更低、有色人种比例更高。
换句话说,算法"学会"了用收入和种族间接定价,而不是直接看你的驾驶记录。
这在统计学上可能"有效",但在伦理上是赤裸裸的歧视。
更可怕的是,这种歧视很难被发现。因为算法的逻辑太复杂,普通人根本看不懂它为什么给你定了这个价。等你发现的时候,你甚至找不到证据去反驳。
你只能眼睁睁地看着:同样一辆车,同样一段路,你的保费就是比别人贵。
这不是因为你技术差,而是因为你被"标签"了。
算法歧视,离我们有多近?
说了这么多国外的例子,你可能会想:国内的情况怎么样?
其实,类似的问题在国内也不少见。
比如,外卖平台的骑手调度算法,会根据骑手的历史表现"区别对待"。有的骑手总是被派远单、大单,不是因为他技术差,而是因为算法觉得"他反正跑不掉"。
比如,短视频平台的推荐算法,对不同用户推送的内容质量是不同的。你以为大家都在看同一个世界,其实每个人都在看"算法觉得你该看的世界"。
比如,某些招聘平台悄悄给男性候选人推更高薪的职位,不是因为女性能力不行,而是因为算法"推测"男性更可能长期稳定工作。
这些例子听起来分散,但背后是同一个问题:AI在用一种"效率优先"的方式,固化甚至放大了现实中的不公平。
它让有钱人更容易省钱,让有资源的人更容易获得机会,让"标签好"的人更容易被善待。而那些本来就已经处于劣势的人,在算法的加持下,处境可能变得更糟。
公平这件事,AI真的能做到吗?
说到这里,你可能会问:算法歧视这么严重,难道就没有办法解决吗?
办法是有的,但执行起来挺难。
透明化是第一位的。让用户知道自己被"看人下菜碟"了,这是最基本的知情权。但问题是,很多平台的定价逻辑是商业机密,它们没有义务公开,你也没有办法核实。
审计机制是第二道防线。监管机构需要有能力去检查算法的逻辑,看它有没有"踩红线"。但算法太复杂,很多地方的专业能力还跟不上。
多元化是长远之计。如果AI团队的成员背景单一,设计出来的算法很可能会"偏心"某一部分人。让不同背景的人参与算法的设计和审查,是减少歧视的重要方式。
但说实话,这些办法都很难立竿见影。算法歧视不是某个bug,修复一下就好——它是技术逻辑和商业利益的深度绑定,动了谁的蛋糕都不好办。
那我们普通人能做什么?
说了这么多宏观的,最后来点实际的。
作为普通人,我们能做什么?
首先,保持警惕。当你发现某个平台对你"特别了解"的时候,别光觉得"这服务真贴心",多想一层:它为什么这么了解我?它在用什么信息判断我?
其次,多用不同账号测试。如果你怀疑某个平台在"看人下菜碟",不妨让朋友帮你搜一下同一件商品,对比一下结果。证据面前,谁也别想抵赖。
最后,别把AI当神。算法再聪明,它也只是在用历史数据预测未来。过去不代表未来,标签也不等于你这个人。别让算法替你做决定,尤其是那些重要的决定。
说到底,AI"看人下菜碟"这件事,本质上是人类商业逻辑的技术化表达。
以前,一个销售员一天最多"歧视"几十个客户;现在,一个算法一秒钟可以"歧视"几百万用户。
这不是AI变坏了,是人类把"嫌贫爱富"这件事,做得太有效率了。
下次当你发现自己的"待遇"和别人不一样的时候,别急着怀疑自己——也许只是算法觉得,你"值得"被区别对待。
而这个"值得",值不值得被尊重,是值得我们每个人去追问的。
你有没有遇到过"算法看人下菜碟"的情况?比如同一件商品,你看到的价格和别人不一样?
夜雨聆风