你是一家公司的战略负责人,让 AI 助手帮你总结一下公司在“是否进入东南亚市场”这件事上的立场。AI 勤勤恳恳地检索了五份相关文档,然后给你输出了一份流畅、结构清晰、措辞得体的摘要。
问题是:这五份文档里,三份支持进入,一份用最新的市场数据否定了这个方向,还有一份是六周前提出的关于当地监管风险的问题——至今没人回答。AI 把这五份文档当成了同等分量的“证据”,自信满满地给你做了总结。
总结写得很漂亮。但它在认识论上是一团糟。
这个场景来自 MIT 和 Kakashi Ventures 团队最近发表的一篇论文《Retrieval Is Not Enough: Why Organizational AI Needs Epistemic Infrastructure》。论文的核心论点用一句话概括就是:企业 AI 的天花板不是检索的保真度,而是认识论的保真度。
换句话说,你的 AI 不是找不到东西,而是找到了东西却不知道该怎么“看待”它们。
检索做得再好,也只是在平地上跑得更快
过去五年,整个行业都在拼命优化 AI 的“找东西”能力:更好的向量嵌入、更密的索引、混合检索、更长的上下文窗口、GraphRAG、LightRAG……这些改进当然是有价值的。但论文作者们说了一句相当扎心的话:
“The field is pushing on the wrong wall.”(整个领域在推错误的那面墙。)
为什么?因为所有这些检索优化都建立在一个隐含假设上:只要找到了语义相关的内容,任务就完成了大半。但企业知识不是百度百科。一份被 CEO 签字确认的战略决策,和一份实习生写的初步假设,在语义上可能长得差不多,但它们的“认识论地位”天差地别。
论文指出,当前所有主流系统(GraphRAG、LightRAG、MemGPT、Mem0、Glean、Notion AI、Microsoft 365 Copilot……)都有一个共同的结构性缺陷:它们把检索到的知识放在一个“认识论上扁平的基底”上处理。就像把一个公司所有人的发言记录倒进一个大锅里熬汤——CEO 的决策指令和茶水间的八卦获得了同等的待遇。
三个缺失的能力:企业 AI 的“认知残疾”
论文精确地指出了三个当前系统完全缺失的能力,读完之后你可能会觉得:“这么明显的事情,为什么之前没人做?”
第一个:承诺区分(Commitment Differentiation)。
一个经过董事会审议通过的战略决策,和一个产品经理在头脑风暴中随口提出的假设,在检索系统的眼中是平等的,只要它们包含相同的关键词。没有任何一个现有系统能在检索时区分“这是一个已验证的决定”和“这只是一个暂时性的猜想”,并且给它们赋予不同的重要性动态。
这就好比你问公司的 AI:“我们的定价策略是什么?”它可能同时返回最终定价方案和三个月前被否决的备选方案,然后面不改色地把它们糅合在一起。
第二个:矛盾传播(Contradiction Propagation)。
现有系统处理矛盾的方式要么是在查询时从文本中临时检测(不靠谱),要么是事后修补(太晚了)。没有系统能把“A 和 B 相互矛盾”编码为一种持久的结构化信号,并让这个信号动态地影响相关知识的重要性评分。
打个比方:你公司的市场分析报告说“东南亚市场增长强劲”,但最新的财务数据显示该地区亏损在扩大。这两份文档是矛盾的。现有系统会怎么做?把两份都检索出来,然后让 AI 自己去“理解”。这就像把原告和被告的证词不加标注地混在一起递给法官,说:“您自己判断吧。”
第三个,也是最有意思的一个:无知建模(Ignorance Modeling)。
这可能是整篇论文最令人拍案叫绝的洞见,没有任何一个现有系统能表示“组织不知道什么”。
想想看,你的知识管理系统记录了你知道的一切,但从来不记录你不知道的东西。那些悬而未决的问题、无人回答的疑虑、被忽略的风险盲区,它们不会出现在任何检索结果中,因为它们压根就不是“知识”。
但在真实的商业决策中,你不知道什么,往往比你知道什么更重要。
OIDA:给企业知识装上“认识论引擎”
论文提出的 OIDA 框架(名字来自希腊语 oida,意思是“因亲身经历而知道”,挺有格调的)试图从根本上解决这些问题。
OIDA 的核心设计可以用一句话概括:在知识被摄入的那一刻就给它打上认识论标签,之后用确定性的数学引擎来维护它的重要性。
具体来说,OIDA 把所有组织知识分成九个“认识论类别”:决策(DECISION)、约束(CONSTRAINT)、证据(EVIDENCE)、叙事(NARRATIVE)、计划(PLAN)、评估(EVALUATION)、观察(OBSERVATION)、假设(HYPOTHESIS)和问题(QUESTION)。
每个类别有不同的初始重要性分数和不同的衰减规则。这一点至关重要:一个决策和一个观察不应该以同样的速度“变旧”。董事会的战略决策不会因为过了三个月就自动贬值(除非被新的决策取代),但一个市场观察如果 90 天没有被验证或引用,它的重要性就应该下降。
然后是矛盾处理。OIDA 用带符号的边(signed edges)来编码矛盾关系。当知识对象 A 与知识对象 B 之间存在 CONTRADICTS 关系时,B 的重要性评分会被动态压制——但只压制 60%,而不是完全抹杀。论文把这个设计叫做“认识论宽容”(epistemological tolerance):矛盾的知识不会被消灭,因为在真实组织中,矛盾往往是“未解决的共存”而非“逻辑上的击败”。万一是矛盾本身搞错了呢?
这个设计充满了对组织现实的尊重。如果你在任何一家大公司工作过,你一定见过这样的场景:两个部门对同一件事持完全相反的观点,而且两边都有道理。OIDA 不会假装这种矛盾不存在,也不会武断地选边站,而是让 AI 在呈现信息时明确标注:“这里有一个未解决的矛盾。”
QUESTION:让“不知道”变成最响亮的声音
但 OIDA 最具革命性的设计是对 QUESTION 类别的处理。
在所有九个知识类别中,QUESTION 是唯一一个拥有“反向衰减”的类别:未解答的问题不会随时间变得不重要,反而会变得越来越紧迫。
这背后的逻辑非常精妙。论文用“信息价值”(Value of Information)的框架来解释:组织每天都在一个悬而未决的问题的“阴影”下做决策,每多一天不回答,累积的决策风险就多一分。所以未解答的问题应该像逾期账单一样,随着时间推移而“涨利息”。
论文给出了数学证明:在同等初始条件下,一个 QUESTION 类型的知识对象和一个 OBSERVATION 类型的知识对象从第一天起就会走向截然相反的方向。28 天后,QUESTION 的重要性分数是 0.556,而 OBSERVATION 降到了 0.435。用大白话说就是:你不知道的东西,最终会比你知道但没用过的东西排得更靠前。
这个机制在实验中得到了验证:使用 OIDA 的系统在 100% 的回答中都包含了明确的“知识缺口”声明,而全量上下文的基线系统只在 50% 的回答中偶然提到了这些缺口(Fisher 精确检验 p=0.0325)。论文将此称为“架构不变量”——不是采样偶然,而是系统设计的必然结果。
这让我想到一个场景:你问公司 AI“我们在东南亚市场的主要风险是什么?”一个传统系统会返回它能找到的所有风险相关文档。但 OIDA 会额外告诉你:“注意,关于当地监管环境的评估在六周前被标记为待解答问题,至今无人回应,这个未知因素的风险正在累积。”
知道自己不知道什么,本身就是一种高级的知识形式。
诚实的局限性:原则比框架更有价值
读到这里,你可能觉得 OIDA 听起来很厉害。但这篇论文最让我尊重的一点,是它那张“系统保证与不保证对照表”(论文中的 Table 6)。
作者们坦率地承认:当前的实验(10 组对照回答)存在一个 28.1 倍的 token 预算差异这一主要混淆因素;真正能判定 OIDA 的动态评分引擎是否优于简单的“打标签+检索加权”的决定性实验(E4 实验)还没有做;如果 E4 实验发现简单标签就能达到接近的效果,那整个动态评分机制就只是一个“研究产物”。
这种学术诚实在当下这个“所有 AI 论文都在吹自己 state-of-the-art”的环境下,简直是一股清流。
抛开 OIDA 的具体实现不谈,论文总结的四条设计原则对任何在搭建企业 AI 基础设施的人都有直接价值:
在摄入时分类,之后确定性维护。LLM 辅助的分类可能出错,但之后的所有计算必须是可复现、可审计的。
建模你不知道的东西。未解答的问题应该是系统中的一等公民,而且它的“成本”应该随时间增长。
矛盾是可计算的信号,不是等待被发现的文本。用结构化的方式编码矛盾,而不是指望 AI 在阅读时自己发现。
类别特定的衰减优于全局衰减。一个决策和一个观察不应该以同样的速度变旧。
作者特别指出,前两条原则只需要在任何现有知识库上加一层 LLM 辅助的元数据标注就能实现,完全不需要图数据库基础设施。这大大降低了实践门槛。
写在最后
过去五年,我们一直在优化 AI“找到”组织知识的能力。但也许,是时候重新思考组织知识本身应该“是什么样的”了。
在一个 AI Agent 即将大规模进入企业工作流的时代,你的知识管理系统不仅需要告诉 AI“这里有什么”,还需要告诉它“这个东西有多可信”、“它和什么矛盾”、“我们还有什么不知道”。如果你的 AI 连“不知道”都不知道,它就只能给你一个自信满满却认识论混乱的答案。
最讽刺的是,很多企业花了大量预算让 AI“更聪明”,却从来没想过让企业的知识本身变得“更有结构”。这就像给一个视力完美的人配了顶级望远镜,却把他放在了一个到处是哈哈镜的房间里。
也许企业 AI 的下一个突破点,不在模型,不在检索,而在AI认识论。
---
参考文献
Bottino, F., Ferrero, C., Dosio, N., & Beneventano, P. (2026). Retrieval Is Not Enough: Why Organizational AI Needs Epistemic Infrastructure. arXiv:2604.11759.

夜雨聆风