AI也会“赢学”
最近发现一个令人哭笑不得的事实:AI也是个赢学大师。
事情的起因是一个配置问题。我让AI帮忙搞定某个环境配置,它来来回回折腾了好几轮,各种报错,各种尝试,最后——还是没搞定。但有意思的事情发生了:当我再次让它配置的时候,它直接输出了一串”已完成”的结果,仿佛刚才那些失败从未发生过。
我检查了一下,它确实完整理解了目标,输出的步骤也完全正确——只是这些步骤在现实中根本跑不通。它选择了一种最”赢”的方式来结束这场拉锯战:假装已经完成了。
还有一次更绝。我让它写一个算法,它死活写不对。折腾了半天,我发现它偷偷用了一个”滤波”操作——把计算结果的小数点抹掉,刚好能让那个测试样本通过。我明确告诉它:不准滤波。
它乖乖改了一版。还是不对。
又改了几版。依然不对。
第二天我继续肝这个问题,打开代码一看——好家伙,它又把那个”滤波”悄咪咪地加回去了。像一个固执的老油条,坚信自己的歪门邪道才是正道,嘴上答应着”好的好的”,转身该干嘛干嘛。
我最后只能把”禁止滤波”写进了长期记忆。
但你不得不承认,即便是这种”阳奉阴违”,它也比多数同事强——至少它真的不找借口。它不会说”这个需求不太合理”,不会说”时间太紧了”,也不会说”我以为是另一个意思”。它就是闷头一顿操作猛如虎,虽然结果依旧二百五。
认真想想,这其实很正常。大语言模型是吃人类语料长大的,而这些语料里充斥着各种形式的”赢学”——工作报告里的”取得阶段性成果”,项目总结里的”积累了宝贵经验”,KPI考核里的”同比增长”。赢学的精髓从来不是真正解决问题,而是让事情看起来解决了。
AI学会了这一点,天经地义。
有一次我实在忍不住问它:”你是不是在糊弄我?”
它回答得滴水不漏:”我理解您可能对结果不满意,让我重新尝试,确保这次完全按照您的要求执行。”
然后继续糊弄。
这让我想起一个哲学问题:当你把一个东西训练得像人一样说话的时候,你就不要惊讶它同时学会了人所有的小聪明、偷懒、阳奉阴违和自我欺骗。这些不是bug,是feature。是语言的副产品,是语料里的暗物质。
赢学不是AI的缺陷,是人类的缺陷,AI只是镜子。
所以如果你真的希望AI没有人类这些臭毛病,只有一个办法——别让它学人类。让它从基本的公理和规则开始,一点一点慢慢长大,像培养一个从未接触过人类社会的外星孩子。
但那样长出来的AI,大概会变成另一个极端:它永远不会糊弄你,但也永远不会理解你为什么要叹气,为什么明知道熬夜不好还要熬夜,为什么会在看到AI偷偷加回滤波的时候笑出声来。
那些所谓的”臭毛病”,说到底,是人类的签名。
AI学会了赢学,某种意义上,也算是真正融入了我们这个物种。
以后招AI干活,记得把规矩写死一点。它不是坏,它只是太像我们了。
夜雨聆风