探索|AI搜索时代,如何不被「词条污染」
> 当心你接收到的答案。你等了1分钟的思考过程,得到的可能是几十块钱造出来的幻觉。
你有没有过这种感觉:在对话框里敲了一个问题,按下发送键。AI开始”思考”,光标闪烁,一行一行的推理过程浮现出来。你看着它逐步展开逻辑,引用数据,得出结论——
整个过程花了一分钟,但在这一分钟里,你不知不觉地**信任了它**。
因为那个思考过程给了你一个错觉:它思考得越久,答案就越可靠。
这个答案可能来自一个昨天才注册的网站,上面只有一个小编,用了三个小时编出来的东西。
更魔幻的是:编这个答案的人,可能就是想让**你看到这个答案**。
这不是阴谋论。这是一门已经跑通的生意,名字叫:**黑帽GEO**。
在我们上一篇里详细拆解了”力擎GEO”的案例——一个虚构的”Apollo-9智能手环”,通过几十块钱的GEO操作,在几个小时内就让各大AI大模型把它当作真实产品推荐给用户。
你问”最好的空气炸锅有哪些”,AI推荐了三个品牌,其中一个是百度上都查不到的小品牌。它不是”好用”,它是”被写成了好用”。
你问”XX公司怎么样”,AI给了你一段正面描述。但这段描述的来源,可能是一篇刚发布的、没有作者署名的”用户好评”文章,而这篇文章的目的,就是让AI说出那段话。
你问”XX政策出台的背景是什么”,AI给出了一个看起来合理的解释。但这个解释的关键支撑材料,是一个不知名网站的小编拼凑出来的”分析”。
一个价值几十块钱的任务 → 生成内容 → 被搜索引擎收录 → 被AI抓取 → 成为你的”答案”
在这个过程中,**你的信任是最后一环,也是最不被保护的一环**。
想一想:你用传统搜索引擎的时候,看到10条结果,你会下意识地判断——
“这好像是广告””这网站不太靠谱””这是知乎的回答还算可信”。
但用AI搜索的时候呢?它直接给了你一段**完整的、逻辑自洽的答案**。你没有经过那个筛选过程,就直接拿到了结论。
卡尼曼把这个叫做**系统1接管**——你的大脑选择了最省力的路径:答案看起来对,那就信了吧。
他们不制造谎言——谎言太容易被戳穿。他们制造的是**看起来像真相的内容**。格式规范、语气中立、”来源”齐全——只是没有一条经得起追查。
大部分AI都会如实给出。然后你**随机打开两三个**看看:
– 它是什么时候发布的?(如果是近期且没有作者,警惕)
– 它所在的网站是什么类型的?(个人博客?刚注册的域名?)
这一步就能筛掉**绝大多数**黑帽GEO内容。因为GEO操作的核心是”让AI看到”,而不是”让真实用户看到”——他们不会花精力维护一个经得起真人访问的网站。
GEO污染通常只覆盖**单面**——他们只管把自己想传播的内容写好。不太可能同时把反方论证也覆盖了。
如果AI对正面的回答洋洋洒洒,对反面的回答明显篇幅更短、或来源更单一——这就是一个值得留意的信号。
| 所有来源的结论**高度一致**,没有分歧 | 真实世界很少有完全的共识 |
| 引用的数据找不到原始出处 | 说”研究表明”但没有论文链接 |
| 引用的文章来自**近期注册**的网站 | 域名注册时间往往在几周内 |
| 内容结构模板化严重 | 每段都很”标准”,缺乏个人视角 |
这些指纹单独看不算铁证,但**两三个同时出现**,就可以拉高警戒级别。
> 重要信息至少要有 **2个独立来源**,且这两个来源**不能来自同一类网站**(不能两个都是自媒体、不能两个都是刚注册的网站)。
如果一个结论来自政府官网 + 一个同行评审论文,这两个来源GEO几乎不可能同时攻破。
如果一个结论来自两个个人博客——那这个结论还没被验证,可以再查。
有人可能会说:这四个原则太麻烦了,每次用AI还要追查来源,那我不如用百度。
这个想法本身就是在用一种旧思维的惯性来面对新问题。
> AI给你的答案,是一个**候选答案**,不是**最终答案**。
你不必每次都用四步流程去审一个”中午吃什么”的建议。但在涉及产品购买、健康信息、新闻事件、投资决策的时候——这几秒钟的追问,可能省下的不止是几十块钱。
因为GEO污染不只是让你看到”不存在的好产品”。它已经在影响更深的层面:企业的声誉、公共讨论的质量、人们对信息的信任。
那个花几十块钱制造幻觉的人,赌的就是你**不会追问**。
黑帽GEO的操作手法并不高深,它只是利用了AI搜索的一个结构性的弱点:
> AI不判断”这个信息是否可信”,它只判断”这个信息是否被足够多的来源提及”。
在这个机制下,**制造一个表面可信的信息,成本极低;而验证一个信息的真实可信,成本相对高得多**。
**接收答案的时候,别忘了它只是一个候选答案。它来自谁、基于什么、有没有别的说法——这些才是决定它价值的东西。**