
“AI万金油”这词儿,源自英文“snake oil”——19世纪美国骗子兜售的“神药”,号称包治百病,实则无效甚至有害。翻译成“万金油”,那股子“啥都能抹,其实啥也治不好”的江湖味儿,一下就出来了。眼下AI圈里,这种“万金油”可不少。
预测式AI
先说说最唬人的一类:预测式AI。这玩意儿被政府和企业用得飞起,用来预测“这人会不会犯罪”、“那员工干得好不好”、“病人啥时候能出院”。听着挺高科技,是吧?但问题就出在,预测未来这事儿,本来就难如登天。
书里讲了个真事。美国医保用AI预测老人住院时间,一位85岁老太太被算法判定17天能出院。结果17天到了,她疼得连助行器都扶不稳,可AI说停付费用就停付。这算法初衷也许是好的(防止养老院无限期留人赚钱),但用着用着就变味儿了——成了只管省钱、不管死活的冷酷算盘。
更荒诞的在招聘。有公司吹牛,说AI看段30秒视频,就能判断求职者“暖不暖、开不开放”。这靠谱吗?大量研究证明,预测一个人未来的生活状态,是极其困难的任务。这些公司往往拿不出像样的证据,纯靠一张嘴忽悠。还有的AI筛简历,候选人换个简历格式(比如PDF改纯文本),或者视频面试时背景里加幅画、围条围巾,评分就能大变。这哪是测能力?分明是测“会不会摆拍”。
预测式AI最大的坑在于,它常常用“容易测量的指标”代替“真正想测的东西”。比如有医疗AI不预测“患者需要多少护理”,而是预测“患者会花多少钱”。结果呢?过去医疗资源分配不均(富人获得更好服务),数据里黑人花费普遍偏低,AI就误以为黑人需求更低,导致系统性地歧视已经处于劣势的群体。这不是技术问题,是目标歪了。
生成式AI
另一大类是生成式AI,像ChatGPT、画图的Dall-E。这东西确实厉害,能聊天、能写代码、能画图,进步肉眼可见。但问题在于,它太强大了,强大到容易被滥用,而且本身还不成熟、不可靠。
2022年底ChatGPT横空出世,两个月用户破亿,连OpenAI自己都没想到。但麻烦接踵而至。谷歌匆忙推出的聊天机器人Bard,在演示视频里就把事实说错了,导致市值瞬间蒸发几千亿。为啥?因为这些聊天机器人本质是“统计引擎”,靠学习互联网海量文本的模式来生成“像人话”的回答,它们不保证真实,只保证“像那么回事”。于是,AI写新闻错误百出,AI生成蘑菇采摘指南能要人命,亚马逊上充斥AI写的垃圾书。
图像生成也一样。工具能模仿任何画家风格,艺术家们没收到一分钱,风格就被“偷”走了。更恶劣的是,AI生成的色情深度伪造满天飞,普通人可能一夜之间就成了虚假色情片的主角。技术是中性的,但人心不是。一把电锯,能盖房也能伤人;生成式AI这把“电锯”,现在几乎是免费发到了全世界每个人手里。
热闹背后的逻辑
那么,怎么分辨真正的AI进步和“AI万金油”呢?书里给了几条线索,我总结成“三问”:
第一问:它解决的是“已知的已知”,还是“已知的未知”?
如果一个问题,人类已经有清晰规则和完美答案(比如算算术、人脸比对),AI做得快,那叫工具升级。如果是一个人类自己都头疼的复杂问题(比如预测犯罪、读懂人心),AI号称能完美解决,你就要警惕——非凡之言,需有非凡之证。
第二问:它是在“封闭环境”里耍,还是能在“开放世界”里闯?
“一招鲜”AI(像人脸闸机)只能在固定场景工作,条件一变就傻眼。而通用智能(AGI)追求的是像人一样,适应多变环境。目前很多吹上天的预测式AI,其实连“封闭环境”都没玩明白,更别提开放世界了。
第三问:它的效果,经得起“系统变化”的考验吗?
很多AI用历史数据训练,在“过去的世界”里表现不错。但一旦部署,真实世界的人会改变行为(比如求职者学会“骗”AI)。这时,AI的预测还准吗?如果开发者只拿历史数据说事儿,不敢验证实际影响,那多半是“纸上谈兵”。
结语
说到底,“AI万金油”盛行,一半是卖家吹牛,一半是买家焦虑。失序的机构(比如负担过重的学校、破案压力大的警局)总想找个“快速解药”,结果往往买了更贵的麻烦。
技术发展是条长河,真正决定AI对社会好坏的,不是模型领先几个月,而是一个国家能否花几十年,把技术融入体制、重塑流程、培训劳动力、更新监管。这需要耐心,更需要清醒。
我们需要摆脱那种“AI要么是神、要么是魔”的极端思维。大部分AI会像今天的拼写检查、垃圾邮件过滤一样,默默改善生活。而我们要做的,是擦亮眼睛,把那些披着科技外衣的“江湖神药”挑出来。别让对进步的渴望,蒙蔽了批判的双眼。
毕竟,历史上“万金油”骗的是钱,而“AI万金油”,骗的可能是我们的未来。
夜雨聆风