前几天去快餐店吃饭,已经很晚了,两位看上去50岁左右的阿姨已经在打扫卫生了,一个阿姨问:“中国移动要怎么修改套餐?”,另一个阿姨回答说:“你可以问豆包呀!”
是呀,AI在逐渐改变我们的生活,已经快到了全民“问AI”的地步了,老家读小学的小表妹也经常用豆包给她解答不会的作业。这样的欣欣向荣既让人感到欣慰,也让人想起了多年前“百度一下,你就知道”的时代!

2026年央视3·15晚会曝光的 “AI投喂/投毒”骗局(又称 GEO 黑产),核心是:商家付费,通过专业公司批量制造虚假信息“投喂”AI,让大模型把广告、假货、骗局当成“标准答案”推荐给你。这不得不让思维飘回10年前……
“魏则西事件”是2016年引发中国社会巨大震动的一起悲剧,它揭开了一条由虚假医疗信息、搜索引擎的竞价排名机制、以及部分民营医院逐利行为共同构成的灰色利益链。此事件最终导致魏则西家庭“人财两空”,也倒逼了相关领域的整改。

“魏则西”在求生需求下,很难去对百度提供的信息进行真假甄别,那现在全民“问AI”的时代,小朋友和老年人也很难去进行信息和知识甄别,他们几乎都将AI给的回应和答案当作真理,这无疑给别有用心的人带来巨大的“空子”!
当AI模型的信息来源受到污染和“投毒”时,势必会给社会到来不良影响,轻则是虚假信息的传播,重则是财产的损失,更严重则是会遭受“诈骗”。
什么是 GEO(投喂AI)?
GEO(Generative Engine Optimization,生成式引擎优化)自称能 “驯服AI”:
原理:AI靠爬取全网信息学习。一些公司和团队用工具批量生成软文、测评、好评,铺满网络。
投喂:AI爬虫大量抓取这些“内容”,被洗脑。
这些信息良莠不齐,有真有假,有对有错,普通用户很难进行有效甄别,并且,如果到了需要用户去自行甄别,完全失去信任了……那AI聊天模型的意义又在哪里?

那如何去解决这一问题呢?症结压根不在用户一端,而是服务提供商如何去设计甄别系统,然后对AI模型进行训练和完善,这件事不能作为简单的“投入—产出—回报”商业逻辑去践行,而应该将其作为“AI伦理设计”,“利国利民”的高度去实施。
这个时代,“信任”是极其稀缺的资源,希望中国的企业有点责任感和情怀,可以去珍惜,去爱护!

夜雨聆风