AI工具的隐私保护做得好吗?
看到一个文章提到AI发串问题,就是有人在使用某AI工具时候,提问得到的回复确实一个陌生人的求职简历,上面包括了名字、照片、联系方式等各种隐私信息。
这个就是AI发串:不同人的上下文发生了混淆。
文章说这可能是“哈希碰撞”与AI幻觉的叠加。系统在处理海量并发请求时,可能错误地给两个不同用户的文档分配了同一个“名字”,导致AI在生成回答时,串错了上下文用户对象。
之前我还琢磨,是不是在使用豆包、DeepSeek、元宝之类的AI工具,只要你登陆注册了账号,就是你独属的防火墙,别人不会串到你的信息上。
实际上,使用AI工具的注册账号,并不是就建立了你的专属AI工具隐私防火墙。注册账号只是使用服务的前提,以便为你提供更精准个性化服务、数据同步、历史记录、授权管理等。
AI本身是大模型运行,你使用AI训练的数据、文字等等,都会被AI记录和训练,输出给其他用户。
最近火热的蒸馏.skill,通过喂入某个人的各种聊天记录、公开发言、著作等,提炼出表达习惯、思维模式等,形成skill,供随时模拟调用。就像被永生的思维。
搜了下skill的概念:skill是一套用自然语言写成的标准化流程,以Markdown格式存储,并告诉大模型处理问题的步骤和规则。相当于大模型AI的工具箱和工作手册。最近爆火的龙虾就是一个使用skill的智能体。
要使用龙虾就需要让渡授权更多的个人隐私信息。
目前看,使用AI工具的隐私保护做得还不行,特别是使用网络版AI工具。本地部署的Ai工具要相对好一些。
夜雨聆风