当AI搜索成为日常,你的信息可能正在裸奔

一周科技热点回顾
在过去的一周里,科技圈发生了 several 件足以改变行业格局的大事。NASA的Artemis II任务在4月4日顺利发射,四名宇航员正朝着月球进发,这是自1972年以来人类首次踏上地月转移轨道。Apple迎来了50周年庆典,从1976年那个车库里的初创公司,到如今市值超过3万亿美元的科技巨头,半个世纪的创新历程令人感慨。
然而,在这些光鲜亮丽的新闻背后,一场关于每个人隐私的危机正在悄然酝酿。
2026年4月3日,一枚重磅炸弹在科技圈炸响:
Perplexity——那个被誉为"谷歌杀手"的AI搜索新秀——被用户告上了法庭。 原因令人毛骨悚然:即便用户开启了"隐身模式",即使用户每个月支付20美元的高级订阅费,他们的对话内容仍然被悄悄分享给了Meta和Google。
这不仅仅是Perplexity一家公司的问题。就在同一周,Meta宣布暂停与AI训练数据公司Mercor的合作,原因是后者遭遇了严重的数据安全漏洞,可能导致大量敏感的训练数据外泄[4]。
再加上此前Writers Guild(美国编剧工会)与各大工作室签署的新协议,明确增加了AI使用的保护条款[5]——这一切都在指向一个令人不安的事实:AI时代,我们的隐私正在以我们无法想象的方式被侵蚀。
深度解析:Perplexity隐私门事件
发生了什么?
根据4月3日公布于加州联邦法院的集体诉讼,原告指控Perplexity在用户不知情的情况下,通过嵌入在AI搜索工具中的Meta和Google追踪器,将用户的对话内容、邮箱地址以及其他个人身份信息发送给了这两大科技巨头[3]。
关键问题在于: 即使用户支付了费用、即便用户主动开启了"Incognito"(隐身)模式,这种数据分享行为仍在持续。
"Perplexity实际上在用户的电脑里’种下了一个bug’,"诉讼文件如此描述,“它的隐身模式根本没有任何保护作用。”
这意味着什么?
想象一下这个场景:
你是一个正在准备重要商业提案的白领。你打开Perplexity,询问"如何评估竞争对手的专利组合",或者"哪家律师事务所擅长处理知识产权纠纷"。你开启了隐身模式,认为这样就很安全。
但实际上:
你的商业机密对话会被发送给Meta和Google 你的邮箱地址会被一并分享 这些公司可以根据你的提问内容为你建立精准的用户画像 你的商业意图、你的战略规划,在不知不觉中已经被第三方掌握
这就像是你在咨询一位看似专业的商业顾问,却发现他正在把你的每一句话都录音交给你的竞争对手。
Perplexity的回应与质疑
Perplexity目前尚未对此诉讼作出正式回应。但在此前类似事件的回应中,AI搜索公司通常会辩称:数据收集是为了"改进服务体验"、追踪器是"行业标准做法"、用户协议中已有相关条款等等。
然而,这种解释显然难以服众。如果用户明确开启了隐身模式、明确支付了订阅费用,却仍然被追踪,这已经不仅仅是"用户体验"的问题,而是赤棵裸的信任背叛。
数据泄露链:AI训练背后的黑暗江湖
Mercor事件:你的数据可能正在被交易
就在Perplexity诉讼曝光的同一天,更糟糕的消息传来:Meta暂停了与AI训练数据公司Mercor的合作[4]。
Mercor是一家专门为AI公司提供训练数据的公司,其商业模式是招募全球范围内的承包商,让他们完成数据标注、评估、测试等工作。这些承包商处理的,往往是AI模型最核心的能力——理解人类语言、判断道德边界、识别不当内容。
但就是这样一家承担着"AI训练"关键角色的公司,却遭遇了安全漏洞。
虽然目前披露的细节有限,但可以想象:如果Mercor的训练数据外泄,可能包括:
AI模型在训练过程中使用的问答数据 承包商对敏感问题的标注和判断 可能涉及商业机密或个人信息的数据
更令人担忧的是, 就在几个月前,The Verge刚刚发表过长篇调查报道,揭示Mercor如何以"高薪远程工作"为诱饵,招募大量白领工作者来"训练AI",但实际工作内容往往是重复、枯燥且薪酬低廉的[6]。
换句话说:成千上万的普通人的劳动成果,不仅被用于训练AI,现在还可能因为数据泄露而暴露在危险之中。
数据泄露的连锁反应
这已经不是AI行业第一次出现数据安全问题。回顾过去几个月:
- 2025年底
,多家AI公司被发现使用 YouTube 视频字幕进行训练,引发内容创作者的强烈抗议 - 2026年初
,某知名AI助手被发现会将用户对话存储在未加密的服务器上 - 现在
,Perplexity和Mercor的事件再次敲响警钟
这形成了一条危险的链条:
用户使用AI服务 → 对话数据被收集 → 数据被用于训练AI或出售给第三方 → 数据泄露或被滥用 → 用户隐私永久受损每一个环节都存在着风险,而普通用户往往在不知不觉中就成了这条链条的"原材料"。
普通人正在付出的代价
日常场景中的隐私侵蚀
你可能会说:“我又不用Perplexity,跟我有什么关系?”
但事实是,你已经在使用类似的AI服务。
让我们做一个简单的列举——看看你的日常数字生活中,有多少AI正在"倾听"你:
换句话说,只要你使用任何形式的AI服务,你的对话、你的行为、你的偏好,都在被持续收集和分析。
一个令人不安的比喻
著名科技评论人Elizabeth Lopatto在报道中引用了诉讼文件中的一句话:
“法院已经受够了这些公司,评审团也对大科技公司给社会造成的损害感到厌倦。”
这句话出自一位长期与科技巨头打官司的律师之口。他曾经起诉过OpenAI、Google,而Sam Altman称他为"打扮成自由战士的吸血鬼"。
不管你是支持AI发展还是担忧其风险,有一点是确定的:AI公司对用户数据的态度,远远不够透明。
风暴眼中的行业反思
各方的反应
Writers Guild的四年协议
令人讽刺的是,就在AI隐私问题闹得沸沸扬扬之际,美国编剧工会(Writers Guild)与好莱坞各大工作室签署了一份为期四年的新协议[5]。这份协议明确增加了针对AI使用的保护条款:
工作室不能使用AI生成的作品来替代人类编剧 编剧们有权拒绝AI参与创作过程 AI辅助创作必须获得编剧的明确同意
这是传统行业对AI的一次"反击"。 但问题是:普通的AI用户,既没有工会组织的支持,也没有法律团队的护航,他们该怎么办?
监管的滞后
目前,全球范围内针对AI隐私的监管仍然处于"追着问题跑"的阶段。欧盟的GDPR、中国的《个人信息保护法》、美国的各州隐私法规——虽然框架已经存在,但面对AI这个新生事物,执法的难度远超传统互联网公司。
技术行业的"惯例"
更深层的问题在于:整个AI行业已经形成了一套令人不安的"惯例"。
“收集数据是为了改进服务” “你不同意我们的隐私政策可以选择不使用” “我们不会出售您的个人数据”(但会"共享"或"授权使用")
这些说辞听起来是不是很耳熟?它们正是过去二十年来互联网公司应对隐私质疑的标准回答。现在,这套"惯例"正在被AI公司完整继承。
我们还能做什么?
作为个人用户的自保指南
尽管形式严峻,但并不意味着我们只能"躺平"。以下是一些实用的建议:
1. 重新审视你的AI使用习惯
避免在AI对话框中输入过于敏感的个人信息 定期清理AI服务的聊天记录 谨慎使用"记住我"或"自动登录"功能
2. 了解并使用隐私保护功能
开启浏览器的"Do Not Track"功能 使用隐私浏览模式 定期检查各平台的隐私设置
3. 关注你使用的产品
选择有明确隐私政策的AI产品 优先选择对数据处理有详细说明的公司 关注安全漏洞和隐私丑闻的新闻
4. 支持隐私保护倡议
支持推动隐私立法的公益组织 在社交媒体上分享相关知识 对不负责任的AI公司发声
行业需要改变什么?
当然,仅靠个人用户的努力是远远不够的。真正的改变需要来自行业层面:
- 透明度的提升
:AI公司需要公开说明他们如何使用用户数据进行训练 - 默认隐私保护
:隐私不应该是需要用户主动开启的"高级功能",而应该是默认配置 - 更严格的监管
:政府和监管机构需要建立专门针对AI隐私的法规框架 - 第三方审计
:独立的审计机构应该定期检查AI公司的数据处理流程
展望未来:危机还是转机?
从某种意义上说,Perplexity诉讼和Mercor数据泄露可能是AI行业成熟的催化剂。
每一次隐私丑闻,都是对整个行业的警示。每一次用户的愤怒,都是推动变革的力量。
就像当年的"剑桥分析"丑闻直接推动了Facebook等公司加强隐私保护一样,也许今天的这些事件,会成为AI行业走向更负责任未来的转折点。
但我们不能把希望完全寄托在"行业自律"上。
正如诉讼文件中所说:“法院已经受够了这些公司。”——当法律介入的时候,行业的"好日子"可能就到头了。
结语
4月4日,Artemis II的宇航员们在距离地球23万英里的太空中,拍摄了一张令人惊叹的照片——蔚蓝色的地球在黑暗的宇宙中熠熠生辉。
在这张照片里,地球是那么美丽、那么脆弱。
而在地球上,数十亿人正在使用各种AI服务,让渡自己的隐私和数据——换取一点点便利。
也许,我们都应该停下来,想一想:
当AI越来越"懂"我们的时候,我们是否正在失去对自己人生的掌控?
当技术公司可以"预见"我们需求的时候,我们还有选择"不要"的权利吗?
这不仅仅是关于隐私的问题。这是关于我们是否仍然是自己生活主人的问题。
夜雨聆风