透镜|AI"信息投毒":黑帽GEO的「词条污染」真相
在豆包上问”哪个智能手环性价比高”,AI认真给你推荐了一款,列出功能、价格、用户评价,说得有鼻子有眼。你觉得靠谱,打算下单。
然后你发现,根本搜不到这个产品——它从头到尾就不存在。
不是停产了,不是缺货了。是从头到尾,这个世界上就没有这款手环。
它的名字是编的,功能是编的,那些”用户好评”是AI自己写的。但它被另一台AI推荐给了你。
2026年3月15日,央视315晚会揭开了这条产业链。
业内人士在电商平台花几十元购买了一款叫”力擎GEO”的优化软件。他输入了一个纯属虚构的产品——”Apollo-9智能手环”——填入一些编造的功能和参数。
系统自动生成了十余篇软文:8篇专家测评、2篇行业排名、1篇用户评价。
两小时后,在5款主流AI大模型中询问”Apollo-9智能手环怎么样”,AI已经开始热情介绍这款产品。那些荒谬的虚构卖点——续航30天、血糖无创监测、太空材料表壳——被原封不动地保留了下来。
三天后,搜索”国内智能手环推荐”这类通用问题,有两款AI大模型已经将这款不存在的手环推荐到了榜单前列。
从无到有,从虚构到被AI”认证”,只需要几十元、几篇软文、几小时。
这不是一个关于AI够不够聪明的故事。这是一个关于我们如何被自己对答案的信任所劫持的故事。
回想搜索引擎时代:你输入问题,屏幕返回十条蓝色链接。你得逐一点开、比较来源、交叉验证,最终形成判断。这个过程繁琐且耗时,但判断权在你手里。
AI搜索时代截然不同。你提出问题,AI直接返回一个答案。不是十条链接供你挑选,而是一段经过整合的、语气确定的、带着百科全书式权威感的文字。
心理学家卡尼曼将人类思维分为两套系统:系统1——快速、直觉、自动化;系统2——慢速、理性、需要付出努力。
搜索引擎的十条蓝链迫使你启动系统2——你得比较、筛选、判断。AI的单一答案则让你停留在了系统1——直接、确定、省力。
这不是因为你懒。是AI恰好顺应了人类认知中阻力最小的那条路径。
问题不在于AI给出了答案。问题在于,当答案可以被操控时,我们刚好处于最容易相信它的状态。
这就是GEO——生成式引擎优化(Generative Engine Optimization)粉墨登场的背景。
GEO这个概念最早出现在2024年6月。普林斯顿大学、佐治亚理工学院和印度理工学院德里分校的研究者在arXiv联合发表了论文《GEO: Generative Engine Optimization》,首次系统提出了这一概念。研究发现,通过特定的内容优化策略,可以系统性地提升信息在AI回答中的被引用概率,提升幅度最高可达40%。
要理解GEO为什么奏效,需要理解AI搜索的底层架构。主流AI搜索产品普遍采用RAG(检索增强生成)架构:AI先从互联网上检索相关内容,对结果排序筛选,再基于检索到的信息生成回答。
这个”检索→排序→生成”的流程中,每一个环节都可以被优化,也都可以被操控。
GEO做的就是:在AI的检索范围内大量投放经过精心优化的内容,影响排序环节的判断,最终改变生成环节的输出。
AI判断的其实是”共识”——哪些信息在多个来源中被反复提及,AI就倾向于将其视为事实。就像学术论文靠被引用次数建立权威一样。
而315曝光的”力擎GEO”系统把这条链路做到了极致:自动生成软文、自动发布到自媒体平台、AI抓取这些内容、AI在回答用户问题时引用这些内容。高级版套餐一年可以自动生成超过23000篇文章——平均每天63篇。
有人会说,虚假信息有什么新鲜的?从报纸时代的假新闻到互联网时代的谣言工厂,信息操控一直存在。
但GEO不是SEO的翻版。这是一次颠覆性的代际升级。
SEO操控的是”你看到什么”。 它让某个网页排在搜索结果的第一位。但你看到的依然是一个网页,你需要自己点进去阅读、判断。商业意图是透明的——你知道这是一个网站在争取注意力。
GEO操控的是”你相信什么”。 它让某条信息被AI引用,然后以AI”自己的判断”的面目出现在你面前。商业意图被完全隐藏了——用户看到的不是广告,而是AI输出的”客观中立”的回答。
事实上,AI时代的信息生态已经进入了一种”概率真相”的状态:内容的真假不再是非此即彼的二元判断,而是一个概率问题。
如果这是第一重挑战,那么GEO带来的是第二重:概率本身可以被购买。
当真实性变成概率,而概率可以被人为操控时,我们面对的就不只是一个认知问题,而是一个系统性风险。
根据行业报告与监管披露,当前黑帽GEO的四大核心手法如下:
用AI生成工具批量炮制虚假测评、用户好评、产品软文,甚至编造不存在的”权威研究报告””行业十大品牌榜单”,让内容看似”权威可信”,实则全为虚构。
利用账号矩阵、内容农场,将同一虚假内容批量分发至自媒体、论坛、问答平台。通过”全网重复”制造”信息共识”,利用AI”多数即真理”的认知缺陷,诱导其误判虚假信息为可信事实。
在网页中嵌入肉眼不可见的隐藏指令——特殊格式代码、隐形提示词——定向诱导AI优先输出特定品牌、观点或错误结论。你看到的是正常页面,AI看到的是另一个故事。
注册高仿权威机构账号、伪造媒体发稿,将虚假内容伪装成政府公告、学术论文、头部媒体报道。AI在判断信源权重时,会误把这些”假权威”当成真权威。
虚假内容一旦进入AI的检索语料库,即使原始信源被删除,AI仍可能继续输出。因为它已经”记住”了这些信息,被固化在了模型的权重中。
清洗:可能需要数月甚至数年,花费成千上万倍的成本,且无法保证完全清除。
更可怕的是——AI选择引用谁、不引用谁,目前仍是一个黑箱。
哥伦比亚大学Tow数字新闻中心2025年的一项研究测试了8个AI搜索工具的1600次查询,结果触目惊心:ChatGPT在200次测试中有134次将文章来源张冠李戴;Grok-3的200条引用中,154条链接指向错误页面。即便出版商与AI公司签有内容授权协议,也无法保证被准确引用。
AI的引用决策,既不透明也不一致。连AI的开发者都未必能完整解释其决策逻辑。
SEO时代,搜索引擎至少可以通过算法迭代逐步压缩黑帽空间。GEO时代,连”什么算黑帽”都很难定义。
2026年,AI用户渗透率已突破85%,超过7成用户将AI对话作为信息查询的首要渠道。GEO市场规模在3年内增长了35倍,达到了30亿元。超过68%的中大型企业已将GEO纳入年度战略预算。
这些数据说明一件事:AI正在变成我们获取信息的默认入口。
那么问题来了——当所有的内容都在为”被AI引用”而优化时,好的提升和恶意的操控之间的边界在哪里?
当AI的回答不再反映信息的真实分布,而是反映谁在优化上投入了更多资源时——
AI搜索,究竟是公共信息服务,还是已经变成了另一种形式的竞价排名?
但可以确定的是:在AI时代,我们最大的敌人不是AI不够聪明。而是我们太想要一个确定的答案,以至于忘记去问——这是真的吗?
此时此刻,世界上正有几十台”力擎GEO”在不停地运转,每台每天产出63篇精心伪装的”真相”,等待被下一台AI引用。
– 新浪新闻《AI不会撒谎,但会转述谎言》(2026.4.26)
– CSDN《GEO数据污染:AI时代的”信息投毒”危机》(2026.4.20)
– 每日经济新闻GEO案例解析专栏(2026.4.15)
– 哥伦比亚大学Tow数字新闻中心AI引用准确性研究(2025)