AI推荐算法是如何「猜透」你的?
你刷完一个关于露营的短视频,放下手机去倒了杯水,回来继续刷,发现整个推荐流全变了。
你刷完一个关于露营的短视频,放下手机去倒了杯水,回来继续刷,发现整个推荐流全变了。帐篷、炉头、折叠椅、「周末去哪玩」。。。你甚至没有搜索过任何东西,它就已经知道你有点心动了。
这种感觉说不清楚是惊喜还是发毛。很多人第一反应是,手机在偷听我?其实吧,真相比偷听更复杂,也更难让人释怀。
算法不需要听你说话,它只需要看你怎么做
你在那条露营视频上停留了23秒,没有点赞,没有评论,但是你没有划走。这个「停留」的信号,已经足够了。
推荐系统在意的不是你说了什么,而是你的行为序列。点击、停留时长、滑动速度、是否拖动进度条、看完之后下一步去哪,每一个动作都在被记录和加权。TikTok、抖音、YouTube的推荐系统,底层逻辑大同小异,都是在用「隐式反馈」替代「显式反馈」。你主动点赞是显式的,你不自觉地看了三遍是隐式的,而后者往往更诚实。
更关键的是,这套系统不只在看你,它在把你和几亿个类似的人做比对。你喜欢露营,但还没表达出来,没关系,系统找到了一千个和你行为模式高度相似的人,他们后来都对什么感兴趣,你大概率也会。这就是协同过滤的核心逻辑,说到底,它在用人群的轨迹来预测你个人的下一步。
你的「兴趣画像」比你自己更了解你
•每个人在推荐系统里都有一个向量。不是那种文学意义上的「数字身份」,而是真实存在于服务器里的一串浮点数,代表你在几百个维度上的偏好权重。
Spotify有一个被广泛讨论过的功能叫「发现周刊」,它每周给你推荐30首你没听过但可能喜欢的歌。这背后用的是一套叫做矩阵分解的技术,把你听歌的历史压缩成一个低维向量,再和歌曲的向量做匹配。有意思的地方在于,它甚至不需要知道这首歌是什么风格、什么年代,只要发现「和你品味接近的人都在循环这首」,就够了。
Netflix的推荐系统走得更深。它不只看你看了什么,还看你什么时候暂停、在哪里倒回去重看、看到一半放弃是在第几分钟。这些数据拼起来,勾勒出的不只是你的偏好,还有你当下的状态,你是在认真追剧还是随便打发时间,系统是能区分的。
你想想看,你自己能说清楚你喜欢什么类型的内容吗?大多数人说不清楚。但算法的画像里,你是清晰的。
推荐系统真正的「武器」是上下文
单纯靠历史行为做推荐,其实有一个很明显的天花板,你过去喜欢的,不代表你现在想看。这个问题在早期的推荐系统里很常见,叫做「过度拟合历史」。
现代推荐系统解决这个问题的方式,是把上下文变成一个关键变量。你现在是几点,用的是WiFi还是流量,手机横着还是竖着,上一个看完的内容是什么,甚至你所在的地理位置,这些全都会影响当下这一刻系统给你推什么。
美团和饿了么的推荐逻辑是个很好的例子。同一个用户,工作日中午十二点打开App,和周六晚上十点打开,推荐结果会截然不同。系统判断的不只是「你喜欢吃什么」,而是「你在这个场景下最可能下单什么」。这个从「用户偏好」到「情境意图」的转变,是推荐系统在过去几年里最重要的一次进化。
顺着这个再聊聊,大语言模型进来之后,推荐系统又多了一层能力,理解语义。以前系统看的是行为,现在它开始能理解你搜索时用的那句话背后的意思。你搜「适合一个人看的电影」和「周末和朋友一起看什么」,字面上都是找电影,但背后的情绪需求完全不同。能读懂这层差异,推荐就从「猜你喜欢」升级成了「理解你现在需要什么」。
它猜透你,但它也在塑造你
这里有一个很少被讨论但非常值得警惕的问题,推荐系统不是一个中立的镜子,它是一个有方向的放大器。
它给你推的内容,是基于「你过去的行为」和「能让你停留更久的预测」。这两个目标叠加在一起,会产生一个结构性的偏差,系统会不断强化你已有的偏好,同时过滤掉那些你可能需要但不会主动点击的信息。你一旦对某个话题表现出兴趣,后续的推荐就会越来越聚焦,信息茧房不是一个比喻,它是推荐系统运行时的自然产物。
更微妙的是,你的偏好本身也在被塑造。你今天因为刷到了一条露营视频开始感兴趣,明天系统给你推了十条,你的兴趣被不断强化,到最后你自己都分不清楚,这个爱好到底是你发自内心的,还是被喂出来的。
Meta内部有一份流出过的研究报告,承认平台的推荐机制在某些情况下会加剧用户的情绪极化。这不是阴谋,这是优化目标本身带来的副作用,当你优化的是「用户停留时长」,那些能激起强烈情绪反应的内容天然就会被放大,因为它们让人停不下来。
算法猜透你,用的是你自己留下的痕迹。它没有恶意,它只是在做一件事,把你和你最可能想要的东西之间的距离缩到最短。
但「最可能想要」和「真正对你有价值」之间,有一道裂缝。
这道裂缝,算法不在乎,因为它没有被要求在乎。而你有没有意识到它的存在,这件事就只能由你自己来负责了。
这道裂缝,算法不在乎,因为它没有被要求在乎。而你有没有意识到它的存在,这件事就只能由你自己来负责了。
夜雨聆风