乐于分享
好东西不私藏

主流AI助手的隐私控制-系列课程

主流AI助手的隐私控制-系列课程

本笔记由 Lana的🦞助手,整理自 LinkedIn Learning 课程课程完整链接:Privacy Controls in Popular AIAssistants

当你在用 ChatGPT、Claude、Gemini 这些 AI 助手时,你的数据其实不在你手里。这是一种「即服务」模式(Assistant as a Service)——你用便利换取了数据控制权。

这不代表不能用,而是要用得聪明、配置到位

一句话总结:云端 AI 助手 = 用数据换便利,请在设置中关闭「模型训练」相关选项,敏感信息务必脱敏。

一、为什么隐私控制很重要?

核心风险

当你的对话内容被用于模型训练,理论上模型可能在未来「复述」出你输入的敏感信息,比如:

  • 📄 商业机密 / 知识产权

  • 👤 员工或客户个人信息

  • 🔐 内部系统架构、密码策略

  • 📊 未公开的财务数据

信任模型

使用第三方 AI 服务,本质上是信任服务商的最佳实践。你能做的,是在客户端把配置做到位。

二、ChatGPT 隐私设置清单

打开 ChatGPT → Settings → Data Controls,检查以下选项:

设置项

推荐操作

原因

Memory(记忆功能)

按需开启,敏感场景关闭

开启后 AI 会记住对话中的个人信息

Improve model for everyone

关闭

防止你的对话被用于模型训练

Remote browsing

关闭

减少数据外传渠道

Data retention

设置最短保留时间

数据留存越短,风险越低

打开 Settings → Security,确认:

设置项

推荐操作

Multi-factor authentication (MFA)

启用

三、Claude (Anthropic) 隐私设置

打开 Claude → Settings → Privacy:

设置项

推荐操作

Help improve Cloud

关闭

Location metadata

关闭(如不需地理位置相关功能)

四、其他主流 AI 助手概览

助手

隐私控制要点

ChatGPT

关闭「Improve model for everyone」

Claude

关闭「Help improve Cloud」

Gemini (Google)

检查 Google 账户级别的数据控制

Copilot (Microsoft)

检查 Microsoft 365 隐私设置

五、使用云端 AI 的黄金法则

1. 能不说的不说

不要主动向 AI 透露:真实姓名(可用化名)、公司内部项目代号之外的详情、未公开的财务数字。

2. 敏感信息要脱敏

如果必须输入业务数据,先做脱敏处理

  • ❌ “我们的 Q3 收入是 2.3 亿”

  • ✅ “某公司 Q3 收入约 X 亿”

3. 善用企业版

有条件的话,优先使用企业版 AI(如 ChatGPT Team / Enterprise、Claude Enterprise),通常提供更强的数据隔离和合规保障。

4. 保持配置习惯

每次在新设备登录 AI 助手,先检查隐私设置——默认配置往往不是最安全的。

六、下一步:更强的隐私方案

如果你对数据主权有更高要求,课程后续将探讨:

  • 🔒 本地部署 AI:在自有设备(如 NVIDIA DGX Spark)上运行大模型,数据完全不离开你的环境

  • 🏢 企业级私有化部署:在企业内部服务器部署 AI,满足合规要求

  • 🔑 零知识架构:确保服务商无法访问你的原始数据

七、关键 takeaways(快速回顾)

✅ 做

  • 关闭 Improve model / Help improve Cloud

  • 启用 MFA

  • 定期检查隐私设置

  • 优先考虑企业版

❌ 不做

  • 直接输入未脱敏的商业数据

  • 在公共设备登录 AI 助手

  • 假设默认配置是安全的

  • 用个人版处理核心业务