主流AI助手的隐私控制-系列课程
本笔记由 Lana的🦞助手,整理自 LinkedIn Learning 课程课程完整链接:Privacy Controls in Popular AIAssistants
当你在用 ChatGPT、Claude、Gemini 这些 AI 助手时,你的数据其实不在你手里。这是一种「即服务」模式(Assistant as a Service)——你用便利换取了数据控制权。
这不代表不能用,而是要用得聪明、配置到位。
一句话总结:云端 AI 助手 = 用数据换便利,请在设置中关闭「模型训练」相关选项,敏感信息务必脱敏。
一、为什么隐私控制很重要?
核心风险
当你的对话内容被用于模型训练,理论上模型可能在未来「复述」出你输入的敏感信息,比如:
-
📄 商业机密 / 知识产权
-
👤 员工或客户个人信息
-
🔐 内部系统架构、密码策略
-
📊 未公开的财务数据
信任模型
使用第三方 AI 服务,本质上是信任服务商的最佳实践。你能做的,是在客户端把配置做到位。
二、ChatGPT 隐私设置清单
打开 ChatGPT → Settings → Data Controls,检查以下选项:
|
设置项 |
推荐操作 |
原因 |
|---|---|---|
|
Memory(记忆功能) |
按需开启,敏感场景关闭 |
开启后 AI 会记住对话中的个人信息 |
|
Improve model for everyone |
关闭⭐ |
防止你的对话被用于模型训练 |
|
Remote browsing |
关闭 |
减少数据外传渠道 |
|
Data retention |
设置最短保留时间 |
数据留存越短,风险越低 |
打开 Settings → Security,确认:
|
设置项 |
推荐操作 |
|---|---|
|
Multi-factor authentication (MFA) |
启用⭐ |
三、Claude (Anthropic) 隐私设置
打开 Claude → Settings → Privacy:
|
设置项 |
推荐操作 |
|---|---|
|
Help improve Cloud |
关闭⭐ |
|
Location metadata |
关闭(如不需地理位置相关功能) |
四、其他主流 AI 助手概览
|
助手 |
隐私控制要点 |
|---|---|
|
ChatGPT |
关闭「Improve model for everyone」 |
|
Claude |
关闭「Help improve Cloud」 |
|
Gemini (Google) |
检查 Google 账户级别的数据控制 |
|
Copilot (Microsoft) |
检查 Microsoft 365 隐私设置 |
五、使用云端 AI 的黄金法则
1. 能不说的不说
不要主动向 AI 透露:真实姓名(可用化名)、公司内部项目代号之外的详情、未公开的财务数字。
2. 敏感信息要脱敏
如果必须输入业务数据,先做脱敏处理:
-
❌ “我们的 Q3 收入是 2.3 亿”
-
✅ “某公司 Q3 收入约 X 亿”
3. 善用企业版
有条件的话,优先使用企业版 AI(如 ChatGPT Team / Enterprise、Claude Enterprise),通常提供更强的数据隔离和合规保障。
4. 保持配置习惯
每次在新设备登录 AI 助手,先检查隐私设置——默认配置往往不是最安全的。
六、下一步:更强的隐私方案
如果你对数据主权有更高要求,课程后续将探讨:
-
🔒 本地部署 AI:在自有设备(如 NVIDIA DGX Spark)上运行大模型,数据完全不离开你的环境
-
🏢 企业级私有化部署:在企业内部服务器部署 AI,满足合规要求
-
🔑 零知识架构:确保服务商无法访问你的原始数据
七、关键 takeaways(快速回顾)
✅ 做
-
关闭 Improve model / Help improve Cloud
-
启用 MFA
-
定期检查隐私设置
-
优先考虑企业版
❌ 不做
-
直接输入未脱敏的商业数据
-
在公共设备登录 AI 助手
-
假设默认配置是安全的
-
用个人版处理核心业务
夜雨聆风