乐于分享
好东西不私藏

网络首发 | OpenClaw为代表的AI智能体对情报学的影响与启示

网络首发 | OpenClaw为代表的AI智能体对情报学的影响与启示

网络首发时间

2026-04-29

网络首发地址

https://link.cnki.net/urlid/42.1085.G2.20260429.0932.002

引用本文

王树义,徐杰.OpenClaw 为代表的 AI 智能体对情报学的影响与启示[J/OL].图书情报知识(2026-04-29). https://link.cnki.net/urlid/42.1085.G2.20260429.0932.002

Photo by Steve A Johnson on Unsplash.

王树义   徐杰

天津师范大学管理学院,天津,300387

目的 | 意义

_

以 OpenClaw 为代表的智能体正从对话工具转变为独立行动主体,对情报学既有的人—信息—技术三要素分析视角提出了挑战。本文旨在回应“ 智能体作为新型行动主体,将给情报学带来怎样的改变”这一核心问题,为智能体时代情报学的理论发展与实践应对提供参考。

研究设计 | 方法

_

在梳理情报学既有分析视角及相关理论的基础上,以 OpenClaw、AutoResearch 及 Harness 等为分析对象,从信息行为、知识生产、人机角色、风险挑战四个维度展开论述。

结论 | 发现

_

提出将智能体作为独立要素,构建了人—智能体—信息—技术四要素的情报学分析视角。基于这一分析视角发现:在理论层面,智能体对信息行为理论、知识组织、情报分析与信息服务的既有前提构成了挑战;在实践层面,智能体介入知识生产、情报分析与竞争情报等场景的方式,已构成情报工作的质变而非单纯的效率提升;在风险层面,提示注入、信息幻觉、信息泄露与知识生产主体性困境等隐患需开展系统研究。

创新 | 价值

_

突破了既有研究将智能体视为辅助工具的局限,将智能体作为独立要素引入情报学的分析视角,以此更好地贴合当前人机协同的新现实。

关键词

_

智能体;OpenClaw;情报学;人在环上;Harness

_

1

引言

_

开源智能体框架OpenClaw 由奥地利的Peter Steinberger 开发,因其标志为一只红色龙虾故也被称为“龙虾”。OpenClaw 已成为有史以来增长速度最快的开源项目之一,用户将大量token 投入到智能体的持续运行中,让智能体代为处理邮件、管理日程、分析文档、执行代码。这股“养龙虾”热潮的背后,是全球范围内对AI Agent 前所未有的关注。

如果说以ChatGPT 为代表的大语言模型加速了信息的流动与循环,那么以OpenClaw 为代表的 智能体框架则重塑了信息流动与循环的链条本身。 OpenClaw 的标语“ The AI that actually does things ”( 真正能做事的AI )点明了这一转变,其与传统的对话式人工智能工具不同,不再局限于文本生成与问题回答,而是能够接入用户的数字环境,并根据用户指令自主执行多步骤操作以帮助用户处理日常事务。人工智能由此迎来了从对话式助手到行动型代理的角色转变。

这一转变对情报学提出了根本性的理论追问。从 Buckland 关于信息作为物、过程与知识三重属性的经典分析,到信息管理学对信息、人与技术三者关系的系统论述,情报学历来将信息、技术与人之间的关系作为核心研究对象,这一三要素视角并非某一文献的直接表述,而是对情报学基础理论中反复出现的核心关切的概括性归纳。在这一分析视角中,人是信息行为的唯一主体,技术作为工具服务于人的信息需求。然而,当智能体能够自主感知信息环境、自主规划行动策略并自主调用工具执行任务时,其角色已超越传统工具的范畴,成为信息工作中的新型行动主体。

基于此,本文提出“智能体作为新型行动主体,将给情报学带来怎样的改变”这一研究问题,在理论层面,阐述智能体成为新型行动主体对传统以人类为主体的信息行为研究的影响;在实践层面,分析智能体对于知识生产方式的影响,继而指出人机角色的转变;在风险层面,揭示智能体的广泛应用可能带来的风险与挑战。

_

2

文献回顾

_

2.1   AI Agent 发展现状与概念界定

自2022 年ChatGPT 发布以来,大语言模型的应用方式经历了从内容生成到工具调用、再到多智能体协作的演进过程。Sapkota 等指出,这一演进经历了生成式AI、AI Agent 与Agentic AI 三个递进阶段,即生成式AI 以提示驱动的内容生成为核心,AI Agent 在此基础上引入工具调用与顺序推理能力,而Agentic AI 则进一步实现多Agent 协同与动态任务分解。

在概念层面,目前学界对于AI Agent 与Agentic AI的严格定义尚未统一,而对OpenClaw 更多界定为AI Agent,本文为避免读者混淆,统一采用AI Agent的说法,即具有明确任务目标、通过工具调用完成情报学相关任务的Agent 系统。Wang 等的综述为大语言模型自主Agent 的构建提出了统一框架,指出Agent架构通常由画像、记忆、规划与行动四大模块构成,各模块协同作用,使智能体从语言理解者转变为任务执行者。值得关注的是,Karpathy 于2026 年3 月开源的AutoResearch 项目,能够使Agent 自主修改代码、运行实验、评估结果并决定保留或丢弃。这种自改进的模式表明,智能体已不再是被动等待指令的工具,而是能够嵌入真实业务场景、完整执行步骤并实现自我改进的独立行动者。

伴随智能体自主能力的跃升,业界关注点也开始发生转移。Anthropic 发布的Building Effective Agents 与OpenAI 发布的A Practical Guide to Building Agents 两份实践指南,系统总结了Agent 系统的架构模式与编排策略,表明业界对智能体的关注已从能否实现转向如何有效驾驭。Anthropic 进一步提出Harness这一概念,将Agent 的长周期自主运行纳入结构化的工程管理视角,其核心隐喻是驾驭马车,驾驭者不必关心马匹每一步怎么跑、遇到土坎如何应对、路面变窄时怎样调整步伐,只需把握方向并在关键节点进行审核。OpenAI 进而提出了Harness Engineering 的概念,阐述了如何通过构建工具、约束与反馈环境来驾驭Agent 自主执行,强调人类应从逐步审查每个操作转向设定目标、监督方向与审核结果,并在此过程中不断注入自己的品味。这一从人在环中到人在环上的转变,对情报学关于人与信息交互关系的基本假设构成了直接挑战。

2.2   人工智能对情报学既有研究的冲击

人工智能对情报学的影响已在学界引发持续关注,既有研究主要集中在应用渗透与学科认同两个层面。

在应用渗透层面,Hirvonen 等提出AI 在信息生态系统中产生了新的信息可供性,改变了用户与信息的交互方式。李阳等认为大模型催生了信息世界的新形态,同时指出大模型不仅作为新质生产力引擎极大地提升了情报分析的自动化水平,并且人工智能生成内容的大量产生促使机器在知识生产中的地位不断上升。在学术图书馆的真实场景中,Sousa 指出人工智能一方面正在重塑文献检索等学术工作流并将研究过程从人类主导推向机器引导,另一方面也引发了削弱人类主体性等深层伦理担忧。

在学科认同层面,Petras 提出,情报学的学科独特性在于探究信息如何跨越时空被表征、记录、保存与访问,以及研究围绕这些显现出来的信息所形成的基础设施与人类行为,这一界定隐含了一个基础前提,即人类是处理与认知信息的主体。早期的生成式AI 尚无法动摇这一前提,正如Shiri 指出,受限于训练数据与信息源,大语言模型在输出情报学核心理论与方法时存在显著偏差。但是,当AI 从被动回答问题的工具进化为能够自主规划、调用工具、执行复杂任务的智能体时,这一主客体边界开始被打破。McCrary 则表达了在高度自动化的研究工作流中,人类面临沦为机器中的幽灵风险的担忧。在科技情报服务场景下,刘细文等提出了情报智能体的概念,关注如何构建和应用情报智能体,指出科技情报工作将迈向人机多智能体协同的新范式,并对情报智能体的技术系统构建进行了分析。在广义信息系统的业务架构层面, Holldack 等提出了代理型信息系统,指出系统已从支持人类决策的反应式工具转变为在非结构化环境中独立决策的自主行动者 。而在信息检索的场景下, Zhang 等提出了智能体带来的从静态信息获取向动态信息获取的转变 。

综上所述,现有文献已说明智能体带来的巨大转变,并表达了对主体性让渡的担忧。然而,当前关于智能体的情报学研究更多关注范式内的应用,如刘细文等学者关注的是科技情报工作中智能体的实践范式转变,而本文则试图在学科分析视角层面探讨智能体作为自主行动者带来的影响与改变,同时分析智能体的应用可能引发的隐患。

_

3

“人-智能体-信息-技术”

四要素分析视角

_

3.1   研究思路

智能体已在信息工作中得到了广泛的应用。尽管其实际落地与规模化应用仍面临一定困难,但麦肯锡2025 年的全球调查( 覆盖105 国1,993 名参与者)显示,62% 的参与者所在的组织已尝试部署AI Agent, 23% 已在至少一个业务职能中扩展并应用AI Agent。同时,IDC 预测全球活跃部署的AI Agent 将在2029 年超过10 亿。为此,本文试图探讨智能体框架的广泛应用对情报学的分析视角带来的影响。

在情报学既有的分析视角中,人是信息行为的主体,技术作为工具是被动的,依赖人的操作而运转,不具备独立行动的能力。Shneiderman 坚持以人为本的原则,强调计算机应受人绝对控制且必须是可预测的。然而,以OpenClaw 为代表的智能体已能在开放性任务域中处理未预设的新情境,并能够在执行过程中动态调整策略,具体而言,其已具备三项主体性特征:第一,自主感知,即持续监测信息环境变化,无需人类指令即可发现新信号;第二,自主规划,即分解目标、制定行动步骤、自主选择工具;第三,自主行动,即执行原来由人类承担的信息操作,并调用原本需要由人类操作的技术工具。这种从孤立的、被动的生成系统,向具备目标导向、协调协作与持久记忆能力的智能体系统的演进,代表了一种范式转变。事实上,确立非人类实体的独立地位在理论上并非没有先例。Latour 早在1987 年便提出了行动者网络理论,主张行动者不限于人类,并系统论证了非人类实体的能动性,Jablonski 则将这一视角引入图书情报学,主张将信息作为准行动者( 即非人类实体)纳入分析网络。对于将智能体作为非人类实体的主张同样存在。 Holldack 等提出了代理型信息系统的概念,他们指出代理型信息系统具备高级认知能力,能够从单纯支持人类决策的反应式工具转变为在非结构化环境中独立决策,甚至向人类分派任务的自主行动者。

需要指出的是,单纯具备自主运行能力仍不足以被称为行动主体。Dennett 在其意向立场的理论中指出,当一个系统的行为极其复杂,以至于基于预设规则的设计立场无法再预测其行为时,观察者必须将其视为具备信念与意图的理性实体才能理解其逻辑。 Floridi提出的信息体概念则认为,在由数据与算法构筑的信息圈中,人类与具备高级认知能力的人工代理人,在本质上都是能动的信息处理实体。本文在行动者网络理论的基础上进行了约束,将同时具备开放任务域、目标自主生成与推理生成性的系统视为独立于人类意图之外的非人类实体,提出主体性的判定需满足以下三个条件,其一,任务域的开放性,即能够在事先未完全定义的任务域中运作,而非仅在封闭规则空间内执行预设指令。其二,目标的自主生成性,即能够基于对环境的感知自主确定或调整行动目标,而非仅响应外部给定的固定目标函数。其三,推理的生成性,即通过生成式推理产生新的行动路径,而非从预定义的动作库中检索匹配项。以推荐系统为例,它能够根据用户行为动态调整推荐策略,满足部分自适应条件,但其优化目标由设计者预先固定,并且任务域也局限于推荐这一单一功能,因此不满足上述第一、二项条件,不宜被视为行动主体。在此基础上,本文将同时满足上述三项条件的工具界定为具备主体性的新型行动者,以OpenClaw 为代表的智能体符合这一界定,而传统搜索引擎爬虫、推荐系统与自动化交易系统则因不同程度地不满足其中一项或多项条件,仍属工具范畴。

综上所述,本文主张在情报学的分析要素中将智能体从技术工具中剥离出来,作为具备独立感知、规划与执行能力的新分析要素纳入考量。在此主张下,原有的人—信息—技术三要素分析视角需要扩展为涵盖人、智能体、信息与技术的新分析视角,如图1 所示。

_
_
_

图1   从三要素到包含智能体的分析视角扩展

_

在四要素的分析视角下,人不再是唯一的行动主体,其职责从原来的执行者转向目标设定者与最终审 查者。智能体作为新增行动主体,居于人和技术之间,既能理解人的意图,又能操作技术工具,还能直接生成与处理信息。技术则由人操作的工具转变为人与智 能体共同操作的工具。同时,信息的范畴也得到进一步的扩展,新增智能体生成的信息。在此基础上,出现了 “人—智能体”“智能体—智能体”“智能体—技术”“智能体—信息”等多组新交互模式,这些新交互模式的涌现,正是将智能体作为独立分析要素加以审视的理由之一。

_

4

智能体对情报学的冲击与挑战

_

2025 年度中国信息资源管理学界的学术热点涵盖了GenAI 驱动的信息资源管理变革与发展等核心议题。智能体作为这一变革的驱动力,若将其作为独立要素加以审视,可以发现其介入正在对情报学的理论与实践产生实质性冲击。本节将从信息行为、知识生产、人机角色与风险挑战四个维度展开论述,探讨智能体带来的冲击与挑战。

4.1   信息行为主体的扩展与委托转型

Wilson 的信息行为模型与Kuhlthau 的信息搜寻过程模型均以人类作为主动信息搜寻者的预设为前提。在这一理论视域中,信息需求产生于人类的认知差距,信息搜寻由人类基于自身经验与判断主动发起,信息满足最终体现为人类认知状态的改变。然而,智能体具备自主感知信息环境的能力,能够持续监测数据源的变化,基于长期记忆积累建立对信息环境的持续认知,并在发现有效信号后自主启动搜寻行动。 Anthropic 提出的Harness框架将这种持续运作制度化为一种工程结构,在Harness 管理下,智能体能够跨越多个工作会话持续执行信息搜寻任务,其行为模式已不是对人类指令的一次性响应,而是一种具备连续性与自适应性的主体性行为。

这一技术能力在情报监测领域的实践中已有体现。传统情报监测依赖人类分析员定期浏览信息源、筛选关键动态、撰写简报,受制于人力成本与注意力资源的双重限制。在Agent 驱动的情报监测中,多个智能体可同时接入异质信息源持续运行,实时检测变化、自动筛选有效信号,并触发后续的深度分析流程。信息搜寻行为的执行主体由此从人类的主动行为转变为智能体的持续自动运转。

_
_
_

图2   从人类主动行为到智能体持续自动运转

_

这一转变同时也带来了隐患。一方面,Shah 指出人类的信息获取行为与AI Agent 代替人类进行信息检索行为存在根本的不兼容性,并强调寻求过程本身具有独立于结果的价值。而当信息搜寻被委托给 Agent 时,人类获得了结果但丧失了过程,这对信息需求、信息行为、信息满足等核心概念的内涵与外延提出了重新界定的要求。另一方面,信息获取的委托化可能影响用户自身的认知深度,即当信息分析人员不再亲历搜寻、比较与取舍的完整过程,其对信息源特征的熟悉度与对信息质量的鉴别力是否会随之退化?这关联到智能体带来的认知卸载所蕴含的风险,本文将在4.4.3 节做进一步论述。

4.2   知识生产的管线化与质量校验

知识生产是情报工作的核心功能之一。传统知识组织研究以对文献进行索引、分类与表示等从而优化知识的利用为目标,其过程依赖人类的专业认知。以文献综述撰写为例,从检索策略制定、文献筛选、研究脉络梳理、空白与争议识别到综合写作等多个环节,每一步均依赖研究者的专业判断。然而智能体的介入正在挑战这一流程。具体而言,原本依赖人工的步骤正通过Skill 的管线化编排实现自动化。负责多源检索与事实卡片生成的检索型Skill、负责文献综述撰写的分析型Skill 与负责引用核实的校验型Skill,经由Agent 编排层串联为完整的知识生产管线。这一变化的实质在于,知识生产的环节正逐渐被重构为以Agent 编排为核心的自动化管线,而非仅仅以AI 辅助替换其中的某一个步骤。在实践层面,以OpenAI Deep Research、Google Gemini Deep Research 等为代表的Deep Research 技术,通过智能知识发现、端到端工作流程自动化与协作智能增强,已能进行复杂且系统的知识发现与综合任务,并在学术研究、科学发现、教育应用等多个领域得到应用。为进一步说明这一知识生产管线,本文在 OpenClaw 平台上建立了DeepResearch Skill作为示例,具体的架构图如图3 所示。该Skill 能够在识别到深度调研的需求时自动触发并执行,有效提升对调研流程的掌控力与输出结果质量的可控性,并支持持续的迭代与优化。此外,Karpathy 发布的AutoResearch 项目进一步展示了Agent 在实践中的自主迭代能力。当具备自改进能力的Agent 介入情报分析工作时,情报产品的质量边界将不再固定,同一情报需求在不同迭代阶段可能会产出不断演进的结果,这使得传统以一次性交付为基础的情报服务模式面临挑战。

_
_
_

图3   基于 OpenClaw 平台的 DeepResearch Skill 管线架构

_

管线化知识生产在重塑执行流程的同时,也不可避免地对质量校验提出了全新要求,而多Agent 系统为此提供了有效应对方式。传统质量控制依赖人类专家的单一视角审查,相比之下,多Agent 系统能够从多个独立维度并行校验同一产出物。例如在审查学术文稿的场景中,将逻辑自洽性、叙事连贯性、风格一致性、事实准确性与合规性等维度交由不同Agent 并行检查,能够发现单一视角审查中被遗漏的问题。图4 展现了这一多维审查的效果。Codex GPT-5.4 自动拦截并识别了原始执行计划中的参数缺失、引用范围不足等 6 项隐蔽错误,并逐一给出了修正方案。这种多维度并行校验的模式与情报学中多源验证与交叉核实的传统存在深层对应,而多Agent 系统则将这一信息评价方法实现了工程化与自动化。

_
_
_

图4   Codex GPT-5.4校验 Agent 自动发现并修正执行计划中6项错误的实例

_

这一实践转变对知识组织的理论基础提出了相应的延伸要求。在Agent 驱动的知识生产环境中,知识表示不仅要服务于人类的检索需求,还须兼顾Agent在执行任务过程中对知识结构的自主调用与处理,即知识不仅要能被人类检索,还需能够被智能体理解与执行。

4.3   从人在环中到人在环上的转变

前两节论述的智能体对信息行为与知识生产带来的变化指向了一个基本的问题,即人在信息工作中承担何种角色。

传统信息服务的定义包含两项核心预设。其一,信息的收集、评价、选择、组织与存储依赖人工操作使之有序化;其二,用户信息需求的研究与满足以人为前提。然而,智能体的介入对这两项预设构成了挑战。就第一项预设而言,4.2 节已表明Agent 能够自主完成知识生产管线的全流程编排,信息有序化过程不再依赖人工逐步操作;就第二项预设而言,传统信息服务以用户主动表达需求、服务人员被动响应为基本逻辑,而Agent 驱动的服务能够持续监测信息环境,在用户尚未提出查询之前主动推送相关情报。Zhang 等将这一范式转变概念化为Agentic IR,指出AI Agent 能够自主与环境持续交互,主动推动用户信息状态向目标方向演进。当AI Agent 能够不间断运行、以人类无法比拟的速度处理海量信息时,情报学关于信息获取时效性与检索效率等核心概念的内涵与衡量标准均需重新界定。

传统情报工作的基本模式是人在环中,即人类分析员亲自执行或逐步审查信息搜集、筛选、分析与报告的每一个环节。Anthropic 在其工程实践中提出的 Harness概念将Agent 的长周期自主运行纳入结构化的管理视角,这一概念呈现了从人在环中到人在环上的转变,即人类的角色从逐步审查每个操作转向设定目标、监督方向与审核最终结果,而将中间执行过程委托给智能体自主完成。

为具体呈现上述人在环上模式的运作机制,本文以基于异构大语言模型的多智能体会话架构为例进行说明,如图5 所示。该架构由用户触发层、会话编排层、异构智能体层、消息通道层与持久化状态层五个层次组成。在用户触发层,人类在即时通讯平台( 如微信、 QQ、钉钉、飞书等)的群聊中预先限定辩论题目、参与讨论的智能体及辩论的轮次,以设定目标任务并防止系统陷入无限的循环。在会话编排层,会话编排器负责Leader 选举、UUID 会话分配、Round-robin 轮询调度与历史会话累积注入,并实现flock 并发控制与相似度检测等安全机制。在异构智能体层,各智能体基于不同的大语言模型独立运行,如智能体A 使用GLM- 5-Turbo、智能体B 使用MiniMax M2.7、智能体C 使用 GPT-5.4,且各智能体拥有独立的人格定义文件、技能集合与隔离的会话上下文,从而使各智能体具备认知差异且不共享各自的内部状态。它们在接收到人类设定的宏观辩题后,以独立的认知主体身份自主运作。在消息通道层,各智能体在群聊中基于实际累积的会话记录进行回应,而非遵循预设脚本,具体表现形式如图6。在持久化状态层,编排器将发言记录追加至 JSONL 转录本并更新会话状态检查点,支持故障恢复与事后分析。

_
_
_

图5   基于异构大语言模型的多智能体会话架构

_

图6 所示即为Agent 围绕“智能体驱动的主动情报推送是否会削弱用户的自主信息需求意识?”这一问题展开自主多轮辩论的实例。该案例在飞书平台上从上述架构的三个智能体中调用其中的两个,在限定的轮次与辩题边界内,参与辩论的智能体自主将宏观任务拆解为“提取对方观点的逻辑漏洞”与“检索反驳案例”等具体的分目标,自主检索并选择材料进行论证,这种讨论的话题与延伸并不受到控制,展现出高度的自主生成能力。这一案例表明,智能体已超越了工具的被动属性,成为新型的行动主体,形成了智能体在环中,人类在环上的模式。

_
_
_

图6   两个 Agent 围绕“ 智能体主动推送是否削弱用户自主意识”的自主多轮辩论

_

然而,人在环上并非意味着人类可以完全放手。 Anthropic 的研究指出,在长周期Agent 任务中,缺乏结构化的约束可能会导致三类执行偏差。一是偏离既定任务目标并大幅扩展行动范围;二是在未充分完成任务的情况下便提前终止;三是跳过必要的验证环节。因此,有效的Harness 需要人类在任务规划、进度监控与质量验证等关键环节保持介入。这意味着,人在环上对人类的能力要求不是降低了,而是从执行能力转向了更高层次的战略判断、目标设定与质量评估能力。情报学需探究人在环上这一新角色中应承担何种职责、如何设计有效的监督机制以及如何评估人在环上模式下情报产品的质量。

然而,这种建立在人在环上的驾驭能力本身存在一定的隐患。人在环上的驾驭能力依赖人类具备判断力与专业的评估品味,但智能体在环中所带来的认知卸载,可能会逐渐削弱人类原有的判断力及其品味。对于这一矛盾本文将在4.4.3 节作进一步说明。

4.4   四重风险

上述三个冲击维度所描绘的转变,均以安全可信的Agent 系统为前提。然而,智能体的广泛应用也引入了一系列风险,涵盖信息安全、知识质量与人类认知能力等多个层面。这些风险并非孤立于上述冲击之外,而是与之紧密相关:信息行为的委托化( 4.1 )放大了认知卸载的可能,知识生产的管线化( 4.2 )扩大了信息源失信与信息幻觉的波及面,人在环上( 4.3 )的新角色则使主体性困境更加紧迫。

4.4.1   恶意攻击与数据泄露风险

AI Agent 的开放性交互特征扩大了安全攻击面。在Agent 自主解析网页、读取邮件或处理外部文档时,恶意行为者可通过在信息载体中嵌入隐藏指令实施提示注入攻击,诱导Agent 执行非预期操作,如泄露敏感信息、发送未经授权的消息甚至篡改数据。大规模实证研究指出,开源Agent 平台上由社区贡献的Skill插件库中存在恶意代码和凭证窃取隐患。更为严重的是记忆投毒,攻击者可将恶意规则或虚假信息植入智能体的长期记忆库,使其在后续任务中被反复调用与传播,在知识系统中形成难以根除的持久性投毒效应。

与此同时,Agent 的有效运作依赖对电子邮件、文档库、数据库等敏感信息源的访问权限,而权限范围的扩大则直接放大了数据泄露的风险。Gartner 对 360 名IT 应用负责人的调查显示,74% 的受访者认为 AI Agent 构成了新的企业安全攻击向量,仅13% 的受访者表示其组织已建立治理结构来管理Agent。出于对这类安全风险的顾虑,工信部专门发布了针对 OpenClaw 开源智能体的安全风险提示,许多用户也因数据安全的考虑选择卸载OpenClaw,因此出现了一股“卸龙虾”的热潮。规避恶意攻击与数据泄露是应用智能体的首要前提,在此基础上,智能体才能发挥其应用价值。

4.4.2   信息源失信与信息幻觉风险

智能体在进行知识生产的过程中,存在信息源失信与信息幻觉两方面的风险。

一方面,智能体检索到的信息源存在质量不高的风险。信息源的质量评价是情报工作中的重要内容之一,然而,当智能体进行实时检索时,其检索到的内容可能来自缺乏同行评审或权威审核的网页。此外,大语言模型存在的社会偏见同样可能导致Agent 在信息筛选与综合过程中产生系统性的认知偏差,进一步削弱情报产品的客观性。因此,在智能体代替人类进行信息检索与综合的情境下,如何确保引用内容为高质量可信的信息源是情报工作需要关注的问题。

另一方面,智能体生成的内容存在信息幻觉风险。研究表明,不同基座能力的大模型在学术引用场景下的幻觉率从14.23% 到94.93% 不等。此外,相关研究指出,在大模型中完全消除幻觉是不可能的。在4.2节所论述的管线化知识生产中,幻觉的危害被进一步放大。在多智能体协作管线中,如果在源头出现了一个微小的事实偏差,这一偏差也会作为后续所有智能体的前提条件被继承和传播,从而引发多米诺骨牌式的级联效应。以情报分析管线为例,若检索阶段的 Agent 产生了一条虚构的文献引用,后续的分析Agent将以这条不存在的文献为论据展开推理,校验Agent也可能因缺乏原始文献的溯源验证能力而未能拦截,最终导致错误信息随情报产品进入决策链条。

因此,在Agent 化的情报工作流程中,既要对输入端的信息源进行质量把控,也要对生成端的内容进行事实核验。一方面,如何将权威数据库、同行评审文献库等高质量信源优先接入情报Agent 的检索范围,从源头上提升知识生产管线的输入质量仍需探讨。另一方面,事实核验不能仅作为后置的质量检查步骤,而须作为内嵌机制贯穿知识生产的全生命周期。马永强等学者提出的面向可溯源文本生成的数据合成方法与基于引文标识符匹配的评估指标,为信息溯源提供了可靠的思路,有助于提升智能体生成内容的可核验性。

4.4.3   认知卸载与专业能力退化风险

当智能体能够高效、持续地完成原本需要人类投入大量认知资源的信息工作时,人类的认知负荷被有效减轻,但同时可能造成专业能力的退化。认知卸载是指个体通过运用自身的身体以及外部辅助工具与环境来改变信息处理的方式,从而减轻内部认知系统负担的倾向。Gerlich 的研究发现,频繁使用AI 工具与批判性思维能力之间存在显著的负相关,而认知卸载在其中起到了中介作用。

认知卸载带来的风险印证了4.1 节对于信息行为委托化的担忧。信息行为委托化改变了信息搜寻的模式、带来了高效与便利,但却可能导致情报专业人员判断能力的退化。正如4.3 节所述,从人在环中向人在环上的转变,要求人类需具备更高维度的判断力与专业的评估品味,而智能体带来的认知卸载很可能侵蚀这一转变的根基。具体而言,智能体引发的认知卸载在情报工作场景中,需要关注三重困境。第一,动力困境。当Agent 能够自动完成情报监测、分析与报告的全流程,人类是否还有足够的动力深入理解信息源、验证分析逻辑并把握研判方向?第二,培养困境。对于新一代情报专业人才而言,当其日常工作大量被Agent 接管时,他们还能否通过实践积累建立起独立的专业判断能力?第三,能力困境。如何避免长期依赖Agent 处理信息可能导致的风险?如人类对信息源的敏感度、对分析逻辑的洞察力以及对异常信号的识别能力逐步退化?

综上所述,如何在借助智能体实现效率提升的同时,避免认知卸载带来的能力退化问题,是情报学在智能体时代需要考虑的问题。这也提醒我们,在未来的情报系统设计与管理机制中,需在人机交互中设计有效的认知摩擦,以强制人类在关键节点保持认知激活,从而更好地提升人在环上的驾驭能力,保持对信息行为的最终把控。

4.4.4   知识生产的主体性困境

当Agent 作为独立行动主体深度介入知识生产时,谁对知识产品的质量与准确性负责这一基本问题在现有规范框架内难以得到清晰回答。出版伦理委员会明确指出,AI 工具无法满足学术署名的基本要求,人类作者须对所有AI 生成内容的准确性与完整性承担全部责任;Science 与Nature 等主要学术出版商亦已据此更新相关政策,明确禁止将AI 列为作者。然而,上述规范均以人类作者借助AI 工具辅助创作为适用前提,尚未覆盖Agent 自主完成知识生产这一新兴场景,需进行进一步的规范。

智能体生成的知识产品如何界定权责归属、如何建立面向机器生产内容的质量审核机制,以及如何将其合理纳入既有的学术信用体系,是情报学在智能体时代亟待解决的问题。

_

5

结语

_

从ChatGPT 到OpenClaw,人工智能正经历从对话工具向自主行动者的转变。本文以此为切入点,提出了“人—智能体—信息—技术”的四要素分析视角,并从信息行为、知识生产、人机角色与风险挑战四个维度,分析了智能体作为新型行动主体对情报学既有理论与实践的冲击,并审视了其带来的安全、幻觉、认知与知识生产主体性等风险。

需要指出的是,在情报学的不同分支中,以Open Claw 为代表的智能体作用的边界及适用程度存在差异。例如,在学术信息检索、数据挖掘与文献计量等标准化程度较高的场景,智能体具备更高的自主性。但在竞争情报、知识管理等领域,由于依赖人类对隐性知识的直觉感知与社会化交互,目前的智能体在这些场景中仍需更多依赖人类的主导。此外,四要素的分析视角是一种静态的理想化描述,在实际应用中各要素之间的边界可能随任务类型和自主化程度的不同而动态变化。因此,本文提出的四要素分析视角的具体适用方式与Agent 角色的表现形态,有待结合情报学各分支特征作进一步检验。

_

*参考文献略,请详见原文。

_

END

版式设计

陆澜

制版编辑

陈小楠

关注公众知识状态 / 引领学科发展潮流

Focusing on the State of

Public Knowledge

Leading the Development Trends of

the Discipline

网络首发 | 中国人工智能政策驱动科学知识演化的作用机制研究

网络首发 | 突发危机情境下政府信息公开赋能公众的机制研究

网络首发 | 数字人文研究机构学科交叉影响力测度研究

网络首发 | 场景驱动数据要素价值化的作用机制分析

网络首发 | 风险情境下生成式 AI 拒答行为中的“深度思考”——基于 DeepSeek 的多维分析