乐于分享
好东西不私藏

AI越可信,我越不自信?——一项关于AI信任与自信的研究|论文选介

AI越可信,我越不自信?——一项关于AI信任与自信的研究|论文选介

摘要

研究表明,人类与AI系统的互动通常会增强对AI的信任,但一个常被忽视的因素是当AI主动请求建议或指导时所带来的紧迫感。本文发现,尽管这种紧迫性不会显著改变人类对AI的信任水平,却会削弱用户的自信心和自我效能感;从长期看,这种下降可能导致绩效降低、决策次优、人为错误增加,并最终影响AI系统的可持续性。基于对30名参与者的实验结果,研究进一步指出,如果用户是在逐步适应的人机协作环境中引入AI,而非在毫无准备的情况下直接面对时间压力,他们会对自身工作更有信心;作者据此讨论了对软件工程实践和决策制定的相关启示。

01

研究背景

研究背景可从三个前提展开:第一,当前AI系统正从被动响应工具转向具备主动提示能力的混合主动与代理型系统,人机协作由“人主导”逐步转为“人机共同决策”;第二,既有研究主要围绕“信任”这一核心变量展开,并从可预测性、可解释性等维度分析其形成机制,但整体上默认交互环境是低压力或中性情境;第三,在实际应用场景中(如实时决策、提示响应),AI往往伴随时间约束,这种“紧迫性”会改变人的认知负荷与决策状态,但其对人机关系(尤其是自我评估与信任之间的关系)缺乏系统性实证研究。因此,该研究将“时间压力”引入人机交互框架,作为影响用户心理状态的重要外部变量进行考察。因此,研究问题为:

  1. 在该实验设定下,人机交互是否会像既有研究所表明的那样提升用户对AI的信任?

  2. 在引入时间压力的条件下,人类在与AI交互过程中其态度会发生怎样的变化?尤其是这种压力是否以及如何影响人类对AI的关系以及对自身能力的评价?

02

研究理论

研究理论由多个概念框架共同构成,并不是单一理论模型,而是围绕“信任—自我评估—交互机制”展开的:

首先,以AI信任理论为核心,将信任操作化为多个可测维度(如易用性、可靠性、可预测性、对齐性、透明性),用于刻画人类对AI的态度结构;

其次,基于混合主动交互(mixed-initiative interaction)框架,将人机协作理解为一种动态分配控制权的过程,其中AI不仅响应人类,还会主动发起提示,从而引入外部压力变量;

再次,引入自我效能理论(self-efficacy),将个体对自身完成任务能力的信念作为关键心理变量,用于解释人类在协作中的自我评价变化;

最后,以认知失调理论(cognitive dissonance)作为解释机制,用于分析当“对AI信任提升”与“自我信心下降”同时出现时,人类如何在心理上调节这种不一致状态,从而形成研究中观察到的“认知不对称”现象。整体上,这些理论共同支持对人机交互中信任与自信分离变化的分析。

03

研究设计:控制实验

样本:30名参与者(计算机/软件相关背景学实验任务:

    * 使用 Pac-Man 游戏作为交互场景

    * 包含两种模式:

        * 人类单独操作(human-only)

        * 人机协作(human-AI interaction)

AI系统

    * 基于强化学习训练的代理

    * 在协作阶段主动向人类请求决策建议

关键变量设计:

    * 自变量:时间压力(urgency)

        * 无时间限制

        * 有时间限制(5秒内响应)

    * 因变量:

        * AI信任

        * 自信心 / 自我效能

实验设计方式:

    * 组内设计(within-subject)

    * 顺序对冲(counterbalanced)

        * 组1:无压力 → 有压力

        * 组2:有压力 → 无压力

04

研究发现

   信任变化

人机交互显著提升了用户对AI的信任水平;大量原本中立或不信任的参与者在交互后转为信任,但这种提升并未对应到具体信任维度(如可预测性、透明性等)的显著变化

   紧迫性的影响

时间压力对自信具有显著负效应,但具有条件性,仅在参与者未经过适应直接进入紧迫情境时,自信显著下降;若先经历无压力交互,再进入有压力情境,则该负效应基本消失。

无论是否存在时间压力,信任均呈上升趋势,说明紧迫性不会显著改变信任水平。

   自信与信任的关系(分离现象)

在人机交互中,自信与信任之间可能出现显著的不同步现象:用户对AI的信任往往因持续观察其稳定、高效的行为反馈而上升,逐渐认可其能力与可用性;然而,在时间压力或AI主导任务的情境下,用户对自身能力的信心却可能下降,感受到自身贡献价值的减弱。这一分离源于两者的作用对象本质不同——信任指向对外部系统的评价,而自信则聚焦于对自我能力的评估。紧迫性的影响路径也各异:时间压力通过提高认知负荷、压缩决策空间,削弱了自我判断的稳定性;而信任的提升更多依赖于对AI行为结果的观察与反馈,并不依赖个体的决策时限。由此形成两条相对独立的路径:人机互动促进信任上升,而未适应的时间压力则导致自信下降,二者并行发展,相互不必然同步调节。

05

结论与讨论

  1. 信任提升与自信下降可以并存,形成认知不对称。与AI交互后,用户对AI的信任从20%上升到70%,但在无准备的紧急条件下,超过一半的用户自信心显著下降。这说明信任和自信是两种独立的心理机制。用户可能越来越信赖AI,却同时越来越怀疑自己的能力。这种不对称状态如果长期持续,可能导致自我效能感被逐步侵蚀。

  2. 信任提升并未改变用户对AI自主权的保留态度。尽管信任显著增强,两个分组中超过70%的用户仍反对让AI完全自主运行,即便任务只是玩Pac-Man这样一个AI明显更强的简单游戏。这表明用户的参与意愿并不完全由信任驱动——即使信赖AI,人们仍然希望保留自己在协作中的角色和话语权。