谷歌AI搜索引用Reddit,用户吐槽:越来越不靠谱
01.
谷歌AI开始翻墙,但翻的可能是豆瓣小组

我看到这条新闻的时候,第一反应不是“哇,AI又进步了”,而是忍不住皱了下眉。谷歌宣布更新AI搜索,要把Reddit和其他网络论坛的内容直接引到搜索结果里。翻译成大白话就是:以后你问AI“怎么追回暗恋的人”,它可能不是给你一篇心理学论文,而是从某个帖子精心摘一段“先冷她三天”的民间智慧。
听起来是不是有点眼熟?这就像你妈不再信专家,转而信邻居大妈。但说到底,谷歌这步棋走得不意外。过去一两年,AI搜索圈最大的焦虑是:生成的回答太“干净”了,大段大段的教科书式答案,没有人的味道,没有那种“哦对了我试过”的鲜活感。而论坛,恰恰是这种味道最浓的地方——有人在挣扎,有人在分享翻车经验,有人半夜发帖说“我是不是做错了”。
但这事的另一面,我第一反应是:你确定要信Reddit那个凌晨三点发的匿名帖子?它可能比某个官网的FAQ更实用,也可能比抖音评论区更离谱。谷歌显然也清楚这一点,所以新闻里写“可能导致混乱”,这五个字读起来就像他们预料到会有人骂。说白了,这是一个赌—赌用户能接受质量的参差不齐,换来答案的“人类感”。
02.
让算法学会听墙角,这件事如果搞砸了

让我把话说得更直白一点。谷歌这个动作,本质上是在说:AI之前从权威网站、百科、学术资料里学东西,学得太“说教”了。现在他们想换个策略,去听普通人在网上怎么聊天的。Reddit上的讨论板,哪怕是一个只有几百个订阅者的小版块,也能提供大量真实且具体的问题和解决方案。比如你问“如何给一只不太亲人的流浪猫剪指甲”,这种问题官网指南通常只会说“寻求专业帮助”,但Reddit上的猫奴们可能已经吵了三百楼,从“先喂罐头诱惑”到“趁它睡觉偷袭”,全是血泪教训。
听起来挺好的,对吧?但问题在于,算法能不能分得清哪个是“血泪教训”,哪个是“血泪谣言”?谷歌说明他们将引用Reddit和其他网络论坛的内容,在互联网上,“专家”这个词已经被玩坏了。一个在Reddit发了三百条猫贴的人,在这个话题上可能真的是专家的,但在计算精度上,算法只能靠回复数、点赞数来判断“权威性”。而靠点赞数来判断对错,这件事本身就是个坑。
我还记得以前在某搜索团队时,我们内部也讨论过要不要把论坛内容拉出来当权威来源。当时有一个同事说了句让我一直记得的话:“你把论坛内容放进搜索里,不是把它们当答案,而是把它们当‘语境’。”意思是给用户一个参考,瞧瞧别人是怎么想的。但谷歌现在这一步,是直接把“语境”包装成了“答案”。如果用户问“新冠疫苗安全吗”,结果AI回答引了一个反疫苗论坛的热帖,那后果就不是“混乱”两个字能说清的了。
那为什么谷歌还是做了?说穿了,是因为他们被架在火上烤。过去两年,像ChatGPT这类对话式AI太火了,用户已经习惯了问一句就得到一段具体、有人情味的回答。老派的“蓝色链接”模式,哪怕链接到再权威的网站,都觉得没人味。谷歌如果不做这个改变,用户就会觉得它“不够聪明”。可一旦做了,又等于把自己逼到了悬崖边上——得同时当裁判和运动员,既要筛选信息,又要输出个人观点。
03.
一个打工人对这次更新的清醒判断

到最后,我想聊聊对普通人来说,这个消息到底意味着什么。不是技术分析,不是资本叙事,就是很实际的一件事:以后你搜东西,可能会变得更有用,但也可能变得更容易被带偏。如果你搜的是“怎么修洗碗机”,Reddit上可能有一个专门的DIY版块,能给你写到拆解螺丝的步骤,比厂商说明书清晰一百倍。但如果你搜的是“哪种投资回报最高”,一个Reddit热帖告诉你“全部梭哈狗狗币”,你跟着操作了,那后果就得自己承担。
谷歌引用了Reddit等来源中的内容。什么是“专家建议”?在论坛语境里,它其实是一个很暧昧的标签。一个用15年水磨石技术的老工人,在专业论坛上留下的帖子,当然称得上专家建议。但一个刚看完三篇公众号文章就来发总结的“热心网友”,他的建议算不算?算法大概率分不清这两者。所以你会看到,明明是同一个AI,有时给你惊艳的答案,有时给你一个让你怀疑人生的馊主意。
说一个我自己的真实感受。我是个喜欢查东西的人,每次看到AI给出引用来源,都会兴致勃勃点进去看看。但如果某天我看到引用的来源是某个论坛里已经被系统折叠的“负赞”帖子,我心里会咯噔一下。这个更新真正考验的不是技术,而是谷歌的底线——他们愿意在“提供生动答案”和“提供准确答案”之间,把自己的天平往哪边倾斜一点点。
另外我还想到一件事。这种变化可能会悄悄改变写内容的人。以前大家拼命写SEO文章,想上搜索结果的第一页。现在呢?如果你是在Reddit某个冷门板块里认真回答别人问题的那个人,你的内容可能突然就被AI“发现”并大规模转发,连你自己都不知道。这有点像被做成了一张没人付你钱的电子卡片——你的知识被用了,但你得不到任何credit。当然,反过来想,这也会刺激更多人涌到论坛里“伪装”成热心网友,实际是为了让自己的内容被AI收录。当年百度贴吧不就是这么被玩废的吗?
很多时候我们觉得AI最大的问题是“太笨”,回答得像机器人背课文。但谷歌这个更新揭示的反而是:当AI真的做到能像活人一样引用论坛上的“人话”时,最大的风险不是它变笨了,而是它可能变得更像一个人——一个会犯错、会站队、会以偏见取信于你的人。到那时,我们要防的不是AI不够聪明,而是它“聪明”到能把你带进沟里。
你怎么看?你平时查东西时会愿意相信一个论坛热帖里的答案吗?还是说你觉得,AI引用论坛反而让结论更有“血有肉”?欢迎来评论区聊聊,说不定你比我看得更透。
#AI搜索 #论坛内容 #信息可信度 #算法偏见 #用户体验
夜雨聆风