乐于分享
好东西不私藏

当 AI 替你参加集体决策:它真的懂你吗?

当 AI 替你参加集体决策:它真的懂你吗?

 1:人类成员通过各自的GenAI数字代表参与团队决策

导语

想象一个很日常的场景:周末去哪玩?Alice 想安静一点,Bob 想热闹一点。两个人都不想反复讨论,于是各自派出一个 AI “数字代表”替自己表达偏好、参与协商,最后由 AI 们一起给出团队决策。

听起来很高效。但问题来了:AI 代表你之前,你要告诉它多少关于自己的信息?告诉得越多,它越懂你;告诉得越少,你省时省力,也少暴露隐私;但如果别人告诉得比你多,最后的集体决策可能就会被“拉向”对方。

这篇论文《Generative AI as Digital Representatives in Collective Decision-Making: A Game-Theoretical Approach》正是从博弈论角度,研究了这个问题:当 GenAI 成为集体决策中的数字代表,人类会如何策略性地向 AI 透露自己的偏好?

为什么这个问题重要?

过去,我们通常把 AI 看作一个“助手”:帮你总结会议、润色文档、生成方案、辅助投票。

但现在,AI 正在从被动工具变成主动参与者。它不仅能提供建议,还可能直接代表人类参与协商、投票、资源分配、团队决策。

比如:代表用户参与推荐系统选择;代表公民参与公共议题讨论;代表病人或医生参与医疗决策;代表团队成员参与项目方案协商。

这就带来一个核心问题:AI 想准确代表你,必须了解你;但你不可能、也不一定愿意,把所有信息都告诉它。

论文指出,仅仅让大模型根据年龄、职业、性别等人口统计信息进行角色扮演,往往会产生偏差,无法准确模拟真实个体偏好。更丰富的个人信息,例如历史行为、社交媒体内容、人格测评结果,确实有助于提升 AI 代表的准确性。

但现实中,完整披露偏好几乎不可能。因为这需要时间、精力、沟通成本,也涉及隐私风险。

于是,问题变成了:在集体决策中,每个人会选择向自己的 AI 代表透露多少信息?

论文如何建模

论文构建了一个两人集体决策模型。为了便于理解,我们可以继续用 Alice 和 Bob 的例子。

两个人各自有一个真实偏好。例如 Alice 更喜欢安静活动,Bob 更喜欢社交活动。每个人都有一个 AI 数字代表。这个 AI 代表一开始并不了解具体用户,只拥有一个关于普通人偏好的“先验认知”。

用户可以选择向 AI 透露一定程度的信息。论文用一个变量来表示这个披露程度:α ∈ [0, 1]。

当 α = 0 时,用户什么都不说,AI 只能依赖自己的默认先验;当 α = 1 时,用户完全披露信息,AI 可以准确表达用户真实偏好。但论文假设,完全披露的沟通成本趋近无穷大,因此现实中几乎不会发生。

于是,AI 学到的偏好其实是一个折中:AI 的输出 = 用户真实偏好与 AI 先验认知的加权平均。

用户透露越多,AI 越接近真实用户;用户透露越少,AI 越接近默认大众偏好。

最后,Alice 和 Bob 的 AI 代表分别表达推断出的偏好,系统再将两者平均,形成团队最终决策。

每个用户的损失由两部分组成:偏好损失,即最终团队决策离自己真实偏好有多远;沟通成本,即为了让 AI 理解自己,需要付出多少信息披露成本。

这就构成了一个“数字代表博弈”。

核心发现一:偏好冲突时,人们反而透露更多信息

论文最有意思的发现是:当成员之间偏好冲突时,他们会更积极地向 AI 披露信息

这听起来有点反直觉。我们可能会以为:如果两个人意见一致,大家会更愿意沟通;如果意见冲突,反而会更保守。但在这个模型里,结果恰好相反。

原因在于:当 Alice 和 Bob 偏好相反时,Bob 向 AI 披露更多信息,会把最终团队决策往 Bob 的方向拉。Alice 为了不让决策偏离自己太远,也会被迫透露更多信息来“反制”。

这是一种竞争性信息披露。换句话说:意见越不一致,越不能沉默。因为你不说,别人说了,AI 就可能更像别人。

这也解释了为什么在 AI 代理参与的群体决策中,偏好冲突不一定让系统失效,反而可能激发更多信息披露,使 AI 更充分地了解各方立场。

 2:偏好冲突会激发竞争性信息披露;偏好一致时更容易出现“搭便车”。

核心发现二:偏好一致时,反而容易“搭便车”

如果 Alice 和 Bob 的偏好方向一致,情况就不一样了。假设两个人都偏向安静活动,只是程度不同。Bob 已经告诉 AI 很多信息,Alice 可能会想:反正他的偏好和我差不多,他说得越多,最终结果也不会太偏离我。那我少说一点,也能省成本。

这就是论文所说的 free-riding,也就是“搭便车”。

当成员偏好一致时,一个人的信息披露会帮到另一个人。因此,部分成员会策略性地少透露信息,把沟通成本留给别人。

这带来了一个重要启示:群体意见一致,并不意味着 AI 代表能更准确地理解每个人。相反,意见一致时,大家可能都觉得“别人说了就够了”,结果导致 AI 获得的信息不足,最终代表质量下降。

核心发现三:越“不像大众”的人,越需要多说一点

论文还定义了一个概念:diversity,可以理解为“用户偏好与 GenAI 默认先验之间的距离”。

如果一个人的偏好很接近 AI 对普通人的默认认知,那么即使他不透露太多信息,AI 也不会偏得太离谱。

但如果一个人的偏好很独特,和大众偏好差异很大,那么默认 AI 很难准确代表他。

因此,论文证明:偏好越偏离 AI 先验的成员,在均衡中会透露更多信息。

这对实际系统设计很有启发。如果未来我们真的让 AI 代表用户参与公共讨论、医疗协商、推荐决策或团队协作,那么系统不能只关注“平均用户”。那些偏好更少见、更边缘、更个性化的用户,反而更需要额外的表达通道。否则,AI 代表很可能默认向主流偏好靠拢。

AI 代表比真人直接参与更好吗?

论文进一步比较了两种模式:一种是每个人直接表达完整偏好,也就是传统人工参与;另一种是让 AI 数字代表参与决策。

结论很微妙。

从“偏好损失”看,AI 代表通常不如真人直接参与。因为真人可以完整表达偏好,而 AI 只能根据部分披露的信息进行推断。

所以论文证明:在整体偏好匹配程度上,数字代表的团队偏好损失不会低于直接参与。

但如果考虑“总损失”,结果就可能反转。所谓总损失,不只是最终结果是否满意,还包括讨论、表达、沟通、协商所消耗的时间和精力。

当人工参与成本很高时,例如复杂谈判、战略规划、大规模公共协商,使用 AI 代表反而可能降低整体损失。

也就是说:AI 代表未必让结果更完美,但可能让决策过程更省成本

论文的数值实验也显示,当手动参与成本较高,或者 GenAI 系统能力更强、交互门槛更低时,数字代表更有可能带来整体收益。

 3:直接参与更准确但成本更高;数字代表未必最准确,但可能降低总成本。

一个反直觉结果:个体可能比直接参与更满意

更有意思的是,虽然团队整体偏好损失不会低于直接参与,但某些个体可能反而更满意
比如,在某些情况下,Alice 的 AI 代表没有完全表达 Alice 的偏好,结果团队决策反而意外地更接近 Bob 的真实偏好。于是 Bob 的个人偏好损失比直接参与时更低。
这说明,AI 代表带来的不是简单的“好”或“坏”,而是一种新的策略结构。
每个人的披露行为都会影响他人。AI 的不完美表达也可能改变团队决策的分布。最终,有人可能受益,有人可能受损。
这提醒我们:AI 代理系统不是单纯的技术问题,而是一个机制设计问题
如果未来让 AI 参与投票、谈判、协商或资源分配,我们不仅要问模型准不准,还要问:谁有动力提供信息?谁会选择沉默?谁能从别人的表达中获益?谁的偏好会被默认先验吞没?

AI 代表比真人直接参与更好吗?

这篇论文的重要价值在于,它没有简单讨论“AI 能不能代表人”,而是进一步追问:当人知道 AI 会代表自己时,人会如何策略性地塑造这个 AI?
这比传统的 AI 对齐问题更进一步。
因为在真实社会系统中,人不是被动数据源,而是策略性行动者。
人会权衡表达成本、隐私风险、决策收益和他人行为。AI 代表的最终表现,不仅取决于模型能力,也取决于用户愿意告诉它什么。
因此,未来的数字代表系统至少需要考虑三个方面。
第一,降低用户表达成本。如果让 AI 理解用户太麻烦,用户就会少说,代表质量自然下降。
第二,保护用户隐私。如果信息披露带来隐私风险,用户也会策略性保守,系统最终只能学到不完整偏好。
第三,设计防止“搭便车”的机制。当群体偏好一致时,成员可能依赖他人披露信息,导致整体信息不足。系统需要鼓励每个人提供必要的个性化信息,而不是只依赖少数积极表达者。

结语:AI 替你发言之前,你要先决定告诉它多少“你”

AI 正在从工具走向代表。

它可以替我们总结、协商、投票、推荐,甚至在未来参与更复杂的集体决策。

但这篇论文提醒我们:AI 代表不是天然懂你。它懂多少,取决于你说多少;你说多少,又取决于别人怎么说。

当偏好冲突时,人们会更积极地披露信息,形成竞争性表达;当偏好一致时,人们可能选择搭便车,反而让 AI 学得不够充分;当人工参与成本很高时,AI 代表可能不是最准确的方案,却可能是更经济的方案。

所以,未来真正关键的问题或许不是:“AI 能不能替我们做决定?”

而是:“在一个由 AI 代表参与的集体决策系统里,我们该如何设计规则,让每个人都被更好地代表?”

这才是数字代表时代真正值得讨论的问题。

参考文献

[1] Chen, K., Huang, J., & Luo, Y. (2025). Generative AI as Digital Representatives in Collective Decision-Making: A Game-Theoretical Approach. In I. Lynce et al. (Eds.), ECAI 2025 (pp. 1334–1341). IOS Press. https://doi.org/10.3233/FAIA250950.

写在最后

我们的文章可以转载了呢~欢迎转载转发

想了解更多前沿科技与资讯?

点击上方入口关注我们!

欢迎点击右上方分享到朋友圈

香港中文大学(深圳)

网络通信与经济实验室

微信号 : ncel_cuhk