警惕!你每天用的工具,可能正在偷偷训练AI
今天想和你聊一个你可能没注意到,但跟你我都有关系的事。
Atlassian宣布,Jira和Confluence等产品将默认开启数据收集,用于训练AI模型。
Jira是很多公司的项目管理软件,Confluence是团队知识库。
它们在全球有几百万企业用户在用。
而你,很可能不知道。

刚入职新公司,要适应环境,得翻大量的历史文档。
看别人踩过的坑,了解项目的来龙去脉。
这些文档帮了我很多。
感觉效率提升了不少。
它的隐私政策里写得很清楚,只是字很小,条款很长,没人会认真看。
于是很多公司回过头来一看:咦,我这儿存着这么多数据?
于是,数据还是那些数据,但用途变了。
我想说三件事。
你以为随手写的东西没人在乎。
但对于训练AI的人来说,正是这些“普通人的普通内容”,构成了AI学习的底座。
举一个很现实的问题:如果你的工作内容被拿去训练AI,而这个AI以后可能替代你的部分工作,你觉得这是好事还是坏事?
你的经验帮助AI成长,AI反过来可能取代你。
听起来有点科幻,但这个逻辑确实存在。
在大公司工作的朋友应该知道,很多企业软件是强制使用的。
你没法选“我不用这个工具”,因为这是公司规定的。
那你的数据被收集这件事,你甚至没有机会说“不同意”。
AI需要数据来进步,这是事实。
好的AI产品,确实需要大量真实世界的数据来学习。
从这个角度来说,用户的数据贡献是有价值的。
你贡献了数据,但这个数据怎么用、谁可以用、能不能删除,你不知道,也控制不了。
但有一天猪长肥了,卖了个好价钱,跟你没关系,你是什么感受?
AI时代的数据隐私,本质上是一个“谁受益”的问题。
企业和AI公司拿到了数据价值,普通用户承担了隐私风险,却没有任何回报,甚至毫不知情。
我分享几个我自己的做法,不一定完善,但至少是个开始。
下次签一个软件服务之前,花两分钟看看隐私政策。
重点看:数据会不会用于AI训练,能不能关闭这个选项。
很多工具其实提供了“退出数据收集”的选项,只是默认是开启的。
你需要主动去找、去改。
有些涉及公司机密或个人隐私的内容,能本地存储就本地存储。
云端协作方便,但方便往往意味着你放弃了一些控制权。
我自己在用的工作流是:云端工具用于协作和同步,但核心的思考和素材,定期整理到本地备份。
这两年关于个人数据保护的法规越来越严格了。
欧盟的GDPR,国内的个人信息保护法,都在这个方向上发力。
多了解一些,至少知道自己的权利在哪里。
当你的数据被不当使用,你是可以维权的。
AI确实带来了效率的提升,这点我每天都在受益。
我用AI辅助写作、辅助编程、辅助思考,它确实帮我解决了很多问题。
我们需要AI进步,但也需要知道:这个进步,谁在买单。
不知道你有没有注意到自己用的工具里,有哪些在悄悄收集数据?
欢迎在评论区聊聊,我们一起避坑。
共勉。
夜雨聆风