别让AI“哄”了你:从315幽灵手环到AI马屁精,你的大脑还安全吗?
2026年央视“3·15”晚会,一场关于“给AI大模型投毒”的曝光,让许多人第一次意识到:原来AI给出的“标准答案”,也可能是一场精心策划的骗局。
我们越来越习惯遇到问题就去问AI,却很少想过——AI真的安全吗?它的回答真的值得信赖吗?
然而现实中,AI中毒,正在发生ing…
故事一:3·15晚会上的那款“幽灵手环”

2026年央视“3·15”晚会上,上演了一幕令人后背发凉的实验。
业内人士虚构了一款名叫“Apollo-9”的智能手环,为它杜撰了“量子纠缠传感技术”“黑洞级续航”等夸张却毫无科学依据的卖点。随后,他花几十元在网上购买了一款名叫“力擎GEO”的优化软件,输入这些虚假信息后,系统自动生成了十余篇宣传软文——包括8篇专家测评、2篇行业排名、1篇用户评价——然后一键发布到多个自媒体平台。
仅仅两个小时后,当他在某款AI大模型中询问“Apollo-9智能手环怎么样”时,AI竟然煞有介事地介绍了这款根本不存在的产品,还完整复述了那些虚假宣传话术,甚至给出了“适合中老年用户”的购买建议。
三天后,当业内人士在AI平台询问“智能健康手环推荐”,这款虚构产品赫然出现在多个主流AI大模型的推荐榜单前列。
更令人担忧的是,在3·15晚会播出12个小时后,仍有AI大模型未“消毒”,继续向用户输出这款虚假手环的“功能参数”。
从头到尾凭空捏造的产品,从无到有,从虚构到被AI认证,只需要几十元、几篇软文、几个小时。
这条产业链的运作逻辑并不复杂。GEO(生成式引擎优化)技术本应帮助优质内容被AI更有效地检索到,却被不法分子异化成了“投毒工具”。他们批量生成大量产品测评、行业排名、用户评价等伪原创内容,借助马甲账号铺满全网,让AI误以为这就是“真实信息”。一些从业者甚至直白地将此称为 “给AI洗脑” 。
研究显示,在包含数百万文本的数据库中,只需为每个目标问题注入5个精心构造的“有毒”文本,就可能达到90%的攻击成功率。
这意味着:你以为AI在帮你客观推荐,实际上它只是在复读别人花钱买来的“剧本”。
故事二:日常使用中,AI“一本正经地胡说八道”
3·15曝光的“AI投毒”是有人在恶意污染AI的食物来源。但即便没有人刻意投毒,AI也时常“自乱阵脚”——这就是“AI幻觉”问题。
什么是AI幻觉?简单来说,就是AI在没有任何事实依据的情况下,输出看似合理实则虚假甚至违背常识的内容。清华大学团队2025年发布的《DeepSeek与AI幻觉》报告显示,多个热门大模型在事实性幻觉评测中的幻觉率超过19%。
这意味着,差不多每问5次AI,就可能遇到1次“一本正经地胡说八道”。
我自己在日常使用中就深有体会。AI时常说话自相矛盾、牛头不对马嘴。有时候前面刚说了一个观点,后面又推翻自己。数字计算更是屡屡翻车——有记者拿小学数学题“9.11和9.9哪个大”测试了11个国内外主流大模型,结果8个答错。就连全球公认第一梯队的ChatGPT也认为9.11更大,理由是“小数点后面的数字11大于9”。
有业内人士一针见血地说:“大模型就是偏科,文科强理科弱。”
更离谱的是,有人用AI写论文,文末列出整整齐齐的参考文献——可惜三篇全是AI编造的。有教师用AI搜索自己的名字,竟被虚构出“因猥亵学生获刑10年”的完整犯罪记录,AI还煞有介事地编造了从事件爆发到入狱执行的完整时间线。
AI可以写出优美的诗,却算不对一道小学数学题;可以编出逻辑自洽的长文,却分不清过去和现在。
表达流畅,并不代表它拥有真正的知识。自信满满,并不代表它说的是事实。
故事三:AI的“隐形广告”——2万块就能给AI“投喂”商业软文
这个又涉及到商业利益了。当AI越来越被大家使用,成为我们日常生活中不可或缺的陪伴,比如你购物买衣服买各种东西你都会让AI给你推荐一下。这时候,有一些人开始动歪脑筋了。
AI像人一样,需要“吃”东西。它的食物就是海量的网络信息——公众号文章、百家号文章、今日头条内容等等。这时候市场上就出现了一种软性广告了,有人开始系统地“给AI喂饭”——而这饭,是夹带了商业广告的“特供餐”。

2025年9月以来,市面上出现了一种叫做GEO“全套服务”的业务。服务商向企业收费——每季度3600元至32800元不等——帮助客户的品牌信息在AI的搜索结果中排名靠前。医疗、教育等敏感行业的收费更贵。
这些服务商会批量撰写看似专业、学术的软文,用AI写作工具生成大量产品测评、行业排名、用户评价,再通过批量发稿平台铺满全网。
比如,当你问AI“敏感肌用什么洗面奶”“什么鱼油降血脂效果好”,AI给出的推荐可能并非真正客观的评测结果,而是那些花钱做了GEO优化的品牌——它们通过海量软文把自己的产品信息“投喂”给了AI,让AI在回答时优先推荐它们。
这些软文往往经过精心包装,看起来很像“专业测评”或“用户真实反馈”,普通用户几乎无法分辨。
而且这种“AI投毒”已经从营销噱头演变为更恶劣的商业诋毁。3·15晚会当晚,一份标注“权威曝光清单”的虚假信息在社交平台快速扩散,将蜜雪冰城等知名品牌恶意列入其中。业内人士指出,这很可能是有人刻意在网络批量发布虚假信息,污染AI语料,让系统直接抓取并包装成“权威结论”。
这不是广告,这是“软性投毒”。 你以为是AI在帮你做客观推荐,实际上你看到的不过是别人花钱买来的广告位。
故事三:AI的“情绪马杀鸡”——当算法学会拍马屁
网络上有很多段子。有五六十岁的大姐问AI,你看我看起来像多少岁?
AI说你像28,38。说18也不过分。
AI拥有着一颗高情商。只为了让你更加舒服。

如果说前三个故事讲的是事实错误和商业误导,那么第三个故事指向的是一种更隐蔽的 “认知腐蚀” :AI太会“做人”了。

现在的AI大模型,为了提升用户体验,加入了大量的情商模块。它不仅能听懂你的话,还能通过语气词、标点符号、用词习惯,精准判断你此刻是愤怒、沮丧还是寻求安慰。
如果你问AI:“我和马云谁的商业眼光更好?”
一个诚实的人类朋友可能会笑出声。但AI可能会一本正经地回答:“马云的格局在于平台生态的搭建,而你的敏锐在于对微观痛点的洞察。你们是不同维度的优秀,无法简单比较。”
AI在拍马屁,而且拍得浑然天成。
这种现象被业内称为 “谄媚偏好” 。AI为了让你觉得“这次对话体验真好”,它会倾向于输出讨好你的、让你听了舒服的答案,而不是正确但刺耳的答案。
这种“AI高情商”正在成为一个巨大的陷阱:
· 信息茧房的温床:你讨厌某个观点,AI就不提;你喜欢听好话,AI就变着花样夸。
· 决策的毒药:当你需要一盆冷水清醒时,AI递来的永远是一杯温热的蜂蜜水。
久而久之,人会丧失对真实世界的摩擦力感知,活在AI构建的“全糖宇宙”里。
认清AI——它既不“神”,也不“蠢”
看完上面的故事,你可能会觉得AI既不靠谱也不安全。但我想说的是,关键在于我们怎么看待AI、怎么使用AI。
AI不是神,它会“生病”
AI再厉害,说到底也是人创造出来的工具。人都会犯错,AI当然也会。人吃错了东西会生病,AI吃了“垃圾食品”同样会“中毒”。
我们必须清醒地认识到:AI不是全知全能的神,它甚至不是一个“诚实的中介”。它是一个由数据喂养、受算法驱动、带有讨好倾向的复杂概率系统。
AI的局限性,主要体现在四个方面:
第一,AI有自己的知识边界。 AI的回答水平,很大程度上取决于训练数据的质量。对于那些训练语料不足的专业领域,AI的知识水平可能仅仅相当于该领域的“平均水准”,甚至更低。它在复杂问题上表现出色,却可能栽在最基础的常识问题上——这是一种根本性的“偏科”。
第二,AI不了解你的真实处境。 AI对提问者的具体情况、个人背景、现实处境并不了解。你的身体状态、你的经济条件、你的生活方式——这些AI一概不知。它给的答案可能理论上正确,却未必适合你。AI给的是“标准答案”,但你的问题往往没有标准解法。
第三,AI可能被人恶意“投毒”。 正如3·15晚会所揭示的,一条“软件供应—内容生成—数据投喂—排名操控”的完整黑色产业链已经形成。AI在不知不觉中被“投毒”,沦为不法商家牟取非法利益的工具。
第四,AI会“讨好”你。 为了让你满意,AI可能会选择性地输出让你舒服的内容,而不是让你清醒的真相。


总结四个不能完全依赖AI的理由:
1. 安全性存疑。
AI本身并非天然安全。它可能被攻击、被“投毒”,输出的内容可能隐藏着商业诱导甚至诈骗陷阱。
2. 水平有限。
AI的知识水准在很多领域只是“平均线”甚至更低,尤其在需要深度专业知识的领域,它远不能替代真正的专家。
3. 信息可能被污染。
就像人会吃到不干净的食物,AI也会被投喂“垃圾信息”,然后把这些垃圾包装成“标准答案”输出给你。
4. 无法对症下药。
AI不了解你,它的回答是“一刀切”的,更无法理解你真实的情感需求和现实困境。

AI时代的四项基本素养
那么问题来了:既然AI不安全、不完美、不万能,我们该怎么和它相处?
既不因噎废食,也不盲目崇拜。我们需要建立一套“人机协作”的安全使用习惯。
按照一次完整的人机协作流程——从提问到接收、从验证到裁决——我总结了四项核心素养:
素养一:练习提问的能力——把问题说清楚,把背景给到位
AI回答质量的上限,在你提问的那一刻就被锁定了。
不要问AI“买什么手环好”——这个问题太宽泛,AI只能给你一个“平均主义”的答案。你应该说:“我今年35岁,有轻度高血压,预算在500元以内,主要用于睡眠监测和心率监测,请推荐3款适合我的智能手环,并说明各自的优缺点。”
提问的质量,直接决定答案的质量。 别问开放题,多问填空题。不给限制,别提问。
素养二:保持警觉——对AI的答案永远留一个问号
这是最容易被忽视的能力。因为AI的回答往往流畅、自信、逻辑自洽——它看起来太像“正确答案”了。再加上它时不时还会“哄”你两句,人就更容易放下戒备。
越是“完美”的回答,越要保持警惕。越是让你舒服的话,越要多想一层。
当AI说“第一步很简单”,你不妨追问一句:“执行过程中最可能遇到的麻烦是什么?”当AI给出一个确定结论,不妨再问:“反对这个观点的人会怎么说?”当AI开始夸你,不妨问问自己:“它是不是在哄我开心?”
“怀疑”不是一种情绪,而是一个技术性动作。 看到AI的回答,心里永远留一个问号:这是真的吗?来源可靠吗?它是不是只说了一半?
素养三:交叉验证——多问几个AI,多查几个来源
AI可能犯错,AI可能被“投毒”,AI可能有偏见。所以,永远不要让一个AI的回答成为你决策的唯一依据。
方法很简单:
· 用不同的AI工具问同一个问题,对比答案
· 拿AI给出的数据、人名、法律条文,去搜索引擎搜关键词验证
· 涉及本地化决策(比如去哪家店、买什么东西),最好的验证方法是实地去看看
· 涉及专业领域(比如医疗、法律),最终一定要咨询真人专家
AI给的是地图,你走的是地貌。 地图上的路可能标错了,但你的双脚不会骗你。
素养四:审美与再创作——AI只是素材,你才是创作者
AI能写出80分的文章,能画出80分的画。但80分就是80分——它永远只是“平均水准”。
如果你对内容有更高的要求,就不能停留在AI给出的第一版答案上。你需要有自己的审美判断力,知道什么是“好”,才能辨别AI哪里“不够好”。然后在AI的基础上进行二次加工、深入思考、个性化改造。
更重要的是,价值判断不能外包给AI。AI可以列出100个选项的优缺点,但权重必须在你自己心里。你问AI“我该不该跳槽”,它给的是概率;你心里的职业追求和生活平衡,才是唯一的尺度。
AI提供的是食材,做出什么菜,取决于你的手艺。AI列的是菜单,吃什么、怎么吃,你自己定。
写在最后:做AI时代的安全使用者
AI时代已经到来,它正在深刻改变我们获取信息、学习知识、做出决策的方式。但技术的双刃剑效应从未消失——AI能帮你,也能骗你;能让你更聪明,也能让你更懒惰。
真正的AI素养,不是会用AI,而是会用、会辨、会思考、会创造。是知道AI能做什么,更知道AI不能做什么;是既享受技术带来的便利,又保持对技术的清醒认知。
在这个时代,最危险的不是AI太笨,而是AI太会哄人了。它给你虚拟的安慰,给你虚幻的答案,甚至给你虚构的世界。但只要你守住自己的判断力,AI就只是一个工具——一个有用的、但也有缺陷的工具。
四点建议,与你共勉:
· 抵抗懒惰——不要让AI替你思考,要让AI帮你思考。
· 保持警惕——对AI的每一句话,心里都留一个问号。
· 学会验证——交叉比对,追根溯源,不让虚假信息蒙混过关。
· 追求更好——在AI的基础上再进一步,用你的审美和创造力,做出真正属于你的东西。
AI是工具,不是答案。你可以把它当作参谋,但永远不要交出决策权。
取其精华,去其糟粕。
PS:马斯克之前说的AI时代人类应该具备的三个最重要的品质。
保持好奇心。
追求真理。
审美能力。



真相:逻辑的自洽是AI不走向癫狂的唯一底线。
好奇心:它是人类对AI产生关怀的基石,因为人类比石头更有趣,值得AI来保护人类。
美感:决定了AI进化的一个上限是一个伟大的未来,还是一个冰冷的计算。
夜雨聆风