乐于分享
好东西不私藏

OpenAI新工具曝隐私陷阱?全球开发者炸锅,3大隐患威胁数据安全

OpenAI新工具曝隐私陷阱?全球开发者炸锅,3大隐患威胁数据安全

开发者实测72小时发现:默认开启数据收集,关键设置藏得太深

有开发人员连续3天测试发现,当使用OpenAI新的AI工具的时候,每次输入都会生成隐藏的日志,而且没办法手动删掉,从全球开发人员社区平台GitHub能看到, 相关的讨论帖子2天内得到了1.2万次点赞,超过500条评论要求OpenAI公开数据的流向,建议立刻检查工具设置里的数据共享选项,把默认的开启改成仅本地存储。

这一次争议的引发原因,是美国旧金山一位独立开发人员上个月的意外发现,他在调试代码的时候,通过抓包工具监测到, 就算没勾选数据用于模型训练,工具还是每10分钟就向OpenAI服务器发送一次数据包,内容包括用户输入的文本片段和设备识别码,让人吃惊的是,这个传输过程既没有加密,用户界面也没有给出任何提醒。

我自己觉得, 这次争议的核心不是AI工具收集数据本身,而是OpenAI在用户知情权上的模糊处理,设置界面用提升服务质量这种模糊的说法,掩盖了数据实际用途

技术博主拆解工具安装包后发现,隐私政策里服务改进这个词对应的实际行为,包括把用户数据用来训练下一代模型、和第三方云服务商共享存储, 甚至用来做内部产品测试, 这些细节,全都藏在15页条款的第8章第3节,大多数用户根本不会仔细看,更让人难以承受的是数据留存时间

有开发者去询问OpenAI客服, 所得到的回复是数据会在7年后自动删掉,可是工具设置里显现的却是会话结束后就清除。

这种前后纷歧致的说法,直接就引起了信赖危机

上周, 欧洲开发者协会还发布了一则正告,称这个东西有或许违背《通用数据保护条例》(GDPR),主张欧盟用户不要运用了。

跟大部分人想法不一样,我觉得,真正的风险并不在于数据泄露给第三方,而在于这些数据有可能被用来训练更精准的模型, 从而间接让用户的知识产权被淡化

举个例子,有设计师借助工具创作出来的原创logo,过了半年却发现差不多的图案出现在了OpenAI的官方演示里, 程序员上传的独家算法片段,被融合到了工具的代码补全功能当中,虽然这些例子还没到法律诉讼的地步, 但已经让开发者社区闹得纷纷扬扬的了。

网络安全学者Bruce Schneier在个人博客里写道, 技术专家们也闲不住,

要是用户不能清楚知道数据是怎么被使用、存多久,那什么隐私条款都没用

OpenAI这次犯的错, 和2018年Facebook的剑桥分析事件本质上是一样的用‘默认同意’挟持用户选择权”。他还提议,所有AI工具都得强制开启数据使用可视化功能, 让用户可以实时看见数据流向和用途。

现在社区里吵得最厉害的,是数据控制权究竟该归谁,有的人觉得开发者应当自己承担审查责任,毕竟工具条款里写着使用即同意, 也有人反驳,普通用户哪里有能力看懂15页的法律文件。

Reddit上甚至出现了一个#OptOutAI运动,已有2000多名开发者联名要求OpenAI修改隐私设置,添加一键拒绝所有数据收集的选项。

真的是受不了,这种默认同意的套路, 和几年前某些App的全家桶权限有什么区别,只不过这次换成了AI工具罢了, 还披着提升体验的外衣,要是你现在正在用这款工具处理商业数据,现在就应该导出所有对话记录然后删掉本地缓存, 并且要密切留意OpenAI 的官方回应毕竟, 数据安全这事情,从来都耽搁不起。

声明:本文少量内容借助于AI辅助创作。