同一个WIFI,同一个APP,我们却刷到两个世界!我们生活的算法“平行宇宙”午休时间,当你拿起手机,同一个办公室、连上同一个WiFi、打开同一款短视频APP,你刷到的是“奥德彪拉香蕉”,他刷到的是“局势分析、行业解析”,你刷到的全是“土味情话、婆媳关系”,隔壁同事却是最流行的“AI漫剧”。这时你会发现,我们活在算法搭建的几个“平行宇宙”里。我们自以为在浏览世界,实则被困在算法量身定做的信息牢笼。而比认知固定更值得警惕的是,这套制造“平行算法宇宙”的逻辑,已踩中了很多人的底线和法律红线。
一、算法平行宇宙如何锁死认知
很多人觉得“算法懂我”是件好事,省得自己找,内容自己就跳出来,却不知道这份“懂你”背后,目的是为了你的停留时长。(一)先将你标签化。
你的浏览记录,会被拆解为多个动作,如果你点赞职场焦虑内容,就会被打上“25-35岁高压职业”标签;你在对立视频上多停几秒,就会被标记为“对对立话题敏感”;你转发一条历史、文化解读,甚至会被贴上“文艺青年”标签。在算法眼里,你从来不是人,只是可被定价的一组数据。(二)将你过滤分组。
和你标签一样的人喜欢看什么,算法就给你推什么。越刷你的标签越多,你的同类也就越集中,你看到的世界越狭窄。一段时间后,你的信息流里只剩你一直以来的认知,不再接受其他内容。(三)实时反馈新信息。
一旦你搜索了别的东西,或是你说了一句话,录音和摄像权限一开,哪怕你多停半秒,它立刻加码同类内容;你划拉得越快,它马上换一波内容试探,试探你的兴趣底线,目的是继续保持“让你上瘾”,牢牢锁定你的信息平行宇宙。
二、算法投喂是否触碰法律红线
(一)过度收集个人信息。
过度的收集违反《个人信息保护法》“最小必要”原则。打算法标签的前提,是收集用户的浏览时长、停留轨迹、点赞评论,甚至是语音、照片等数据。
而《个人信息保护法》明确:个人信息处理应当限于处理目的最小范围。然而很多平台通过手段,在用户注册时,会以格式条款一揽子取得授权,并未对每一项数据收集目的、方式、范围等进行充分的告知。(二)算法透明极度缺失。
《互联网信息服务算法推荐管理规定》,明确要求算法服务提供者,应当显著告知用户算法推荐的基本原理、目的意图和主要运行机制,同时向用户提供不针对其个人特征的选项,并且存在便捷的关闭选项。但实际情况是,多数平台的规则都被偷偷藏在冗长的个体条款、合同协议里,当你想关闭个性化推荐时,会用极其拗口的语言屏蔽,入口藏得极深,甚至在关闭后仍然会变相投喂。(三)放大不良信息。
很多平台未履行内容治理主体责任。《网络安全法》《互联网信息服务管理办法》都明确平台对信息内容负有审核与管理义务。而算法会变向隐藏流量逻辑,偏爱情绪激烈的内容,导致谣言、伪科学、对等不良内容被放大,平台却仍然装作不知道,以“算法自动推荐”为由推卸责任。(四)将用户信息作为商品售卖。
这严重侵犯了消费者合法权益。对于普通用户,使用平台的某些消费行为,《消费者权益保护法》明确规定消费者知情权、公平交易权等。算法把用户注意力、停留时长打包卖给广告主,用户看似在使用免费的服务,实则成了算法交易的商品。
三、应当打破破信息茧房
根据《算法推荐管理规定》,平台应提供便捷的关闭算法推荐服务选项,有权删除、修改用于算法推荐的个人标签。从被动接受投喂,转向主动掌控信息主动权。《个人信息保护法》赋予个人信息查阅、复制、更正、删除权,我们有权要求平台告知其收集哪些个人信息、用于哪些推荐场景,有权要求平台删除。