
一、科研经费管理,正在进入一个新的阶段
这几年,科研院所和高校内部关于科研经费管理的压力越来越大。巡视、审计、财会监督、专项检查、绩效评价、科研诚信治理等工作持续加强,很多科研管理人员都有一种非常明显的感受:如今的问题,已经不再是“有没有制度”,而是制度越来越多、流程越来越复杂、检查越来越频繁。
但与此同时,另一个问题也越来越突出。
系统越来越多,数据却越来越碎。
科研系统里有项目、任务书、成果和科研过程数据;财务系统里有预算、预算执行、报销、支付、会计核算、财务凭证和账务数据;OA系统里有审批流程与过程留痕;合同系统里有采购与履约信息;资产系统里有设备与资产数据;人事系统里有人事关系、薪酬、绩效和团队结构数据。
这些系统各自都在运行,但很多时候,它们之间并不能真正形成一个完整的“科研项目全生命周期”。
项目是项目,预算是预算,核算是核算,成果是成果。系统之间缺少真正的数据关联,流程之间缺少完整的逻辑闭环。于是很多风险,并不是因为没有制度,而是因为数据是断裂的、流程是割裂的,管理者很难从全局视角真正理解一个科研项目完整的科研行为与财务行为。
也正是因为这个原因,我最近一直在思考一个问题:
如果AI已经可以辅助医生看片子、辅助程序员写代码,那么它为什么不能辅助科研机构“看经费”?
于是这段时间,我一直在尝试搭建一个科研经费“自审模型”。
这里说的“自审”,并不是替代真正的审计部门,也不是替代纪检、巡视或者财务审核,而更像是一套面向科研机构内部的“日常风险预警系统”。它的目标不是事后追责,而是尽可能在风险形成之前,提前发现问题。
二、AI自审模型真正解决的,到底是什么问题
很多人看到这里,可能会问:
科研机构为什么一定需要这样一个AI自审模型?
它真正解决的,到底是什么问题?
我后来越来越觉得,它真正解决的,其实并不是“替代审计”。
而是:
解决传统科研治理中“看不全、看不及时、看不连续”的问题。
过去很多单位的内部审计,本质上仍然是“阶段性抽查”。
例如:
项目结题前检查一次;
巡视前集中自查一次;
审计来了临时整理一次;
出问题后再回头追溯一次。
这种模式其实有一个很大的问题:
很多风险被发现的时候,往往已经发生很久了。
而且很多项目周期长、参与人员多、系统分散、材料复杂,单纯依靠人工,其实很难长期、持续地理解一个项目全过程的行为逻辑。
所以很多单位现在最大的痛点,并不是“没人审核”。
而是:
没有能力长期、持续、全量地去看。
而AI自审模型最核心的价值,恰恰就在这里。
它并不是只在项目结题时“看一次”。
而是可以:
长期运行、持续扫描、动态分析。
也就是说,它更像是一个长期运行在科研活动背后的“风险感知系统”。
它最大的特点,不是“事后发现问题”。
而是:
尽可能提前发现风险。
例如:
某个项目的预算执行结构突然发生异常变化;
某类采购在短时间内明显集中;
某些项目长期没有形成阶段成果,但持续发生支出;
某些供应商与特定项目组形成长期高频关联;
某些劳务、会议、差旅数据出现明显规律化特征;
这些问题,传统人工审核未必能够第一时间发现。
但AI恰恰擅长:
长期观察趋势、发现异常模式、识别逻辑冲突。
而且这种模型还有一个特别重要的价值:
它能够降低“临时性治理”的成本。
过去很多单位最痛苦的事情之一,就是:
审计来了开始补材料, 巡视来了开始翻历史, 验收来了开始重新整理依据。
这种状态,本质上是一种“被动治理”。
但如果项目全过程数据能够持续沉淀,AI能够长期分析,那么很多工作其实会从“临时准备”逐渐转变为“日常积累”。
这对于科研机构来说,价值其实非常大。
因为它真正降低的,不只是审计风险。
更重要的是:
降低整个科研管理体系长期运行中的组织成本。
三、真正的难点,不是AI,而是数据本身
在真正开始做这件事情之后,我越来越意识到,最难的部分其实并不是大模型本身。
真正困难的,是很多科研机构并没有形成一套完整、连续、可追溯的数据体系。
因为AI最怕的,并不是数据少,而是数据之间没有逻辑关系。
很多单位当前的信息化建设,本质上仍然是“业务系统的集合”,而不是“围绕科研项目形成的数据体系”。科研系统负责项目管理,财务系统负责预算、预算执行、报销、支付与会计核算,OA负责审批,合同系统负责采购,资产系统负责设备管理,人事系统负责人员与绩效,但这些系统之间往往是相互独立的。
而科研项目本身,实际上是一条完整的业务链。
它应该天然包含:
项目立项与任务书
预算编制与预算执行
合同与采购
报销与支付
会计核算与账务
人员投入与绩效
科研过程与阶段成果
项目结题与验收
只有这些数据真正关联在一起,AI才有可能理解一个科研项目是否“合理”。
否则,AI看到的永远只是碎片。
四、AI真正需要的是“科研项目全过程数字化档案”
因此,我后来越来越觉得,如果真的想做科研经费“自审模型”,第一步甚至不是AI,而是先建立一套“科研项目全过程数字化档案”。
简单来说,就是围绕一个科研项目,把所有相关的数据、流程、依据、材料,形成一套长期保存、可追溯、可关联的数据体系。
这里面不仅仅是财务凭证,还包括:
项目任务书
项目预算与预算执行数据
合同与采购记录
发票与银行回单
会计凭证与账务数据
审批流程与审批意见
项目阶段材料
技术文档与研究记录
人员与绩效数据
结题与验收材料
甚至还包括会议纪要、过程说明、项目内部依据等大量非结构化材料。
也就是说,未来真正重要的,可能已经不再只是“项目数据”。
而是:
“项目全过程的数字化证据链”。
因为过去很多单位的问题,并不是没有材料,而是材料长期分散在不同系统、不同部门、不同人员甚至不同电脑中。真正到了项目验收、专项检查或者审计阶段,才开始重新整理、重新补充、重新寻找依据。
这种模式本身就意味着巨大的管理成本。
而如果项目从启动开始,就持续形成数字化沉淀,那么很多事情在项目结束时,其实会自然形成,而不再需要“临时准备”。
五、这个体系本质上是“人机结合”的
很多人一提到“数据中台”,会觉得这是一个非常庞大、复杂、昂贵的工程。
但实际上,对于科研机构来说,它未必需要推翻原有系统。
很多单位现在最担心的,就是是不是又要重新建设一套新的管理系统。
事实上,真正有价值的,并不是推翻重建,而是第一次把原本已经存在的数据真正组织起来。
现在很多技术路径已经非常成熟。完全可以通过接口、RPA、数据同步、自动归集、文件采集等方式,把原有系统中的关键数据逐步汇聚起来。
而且这个过程,本质上是“人机结合”的。
有些数据,机器可以自动抓取。例如财务凭证、预算执行数据、会计核算数据、支付记录、合同数据、审批流程、人员与薪酬绩效数据等。
但还有很多真正重要的数据,其实并不在系统里,而是在项目组自己手里。例如研究记录、技术文档、阶段成果、项目过程说明、专家意见、项目内部依据等。
这些内容,完全可以由项目组主动上传。
最终形成的,不只是一个项目台账,而更像是一个围绕科研项目建立起来的全过程数字化资料库。
六、是不是只有信息化基础很好的单位,才能做AI自审?
还有一个问题,其实很多单位都会问:
“我们现在连系统都还没完全建好,信息化基础也不强,能做这种AI自审模型吗?”
我后来越来越觉得:
很多人其实把这件事想“重”了。
因为大家一提AI、大模型、数据中台,就容易下意识觉得:
是不是必须先建一套特别庞大的系统? 是不是必须所有系统都完全统一? 是不是必须已经高度数字化?
其实未必。
恰恰相反,我反而觉得:
很多科研机构完全有可能通过这种方式,实现某种意义上的“弯道超车”。
因为传统的信息化建设,很多时候是:
先建系统, 再建流程, 再做集成, 最后才考虑数据治理。
这个周期往往非常长。
但AI时代有一个很大的变化:
很多时候,真正重要的,已经不再只是“系统本身”。
而是:
数据能不能组织起来。
也就是说,一个单位即使现阶段系统并不完善,甚至很多数据仍然是Excel、Word、PDF、扫描件,只要这些数据能够逐步归集、形成结构,AI其实就已经开始具备分析能力。
这一点非常关键。
因为AI天然就具备处理非结构化数据的能力。
过去传统系统最怕:
PDF;
Word;
扫描件;
会议纪要;
图片材料;
非标准格式。
但这些东西,恰恰可能是AI最容易理解的一类数据。
所以未来很多单位未必要等到:
“所有系统完全建好以后”
才开始做AI治理。
很多时候,完全可以:
一边建设, 一边沉淀, 一边归集, 一边分析。
甚至对于一些基础比较薄弱的单位来说,AI时代反而可能降低了很多传统信息化建设的门槛。
因为过去很多事情,需要:
复杂流程建模;
严格结构化录入;
长周期系统开发;
但现在,AI已经开始具备:
从已有材料中自动理解、自动归类、自动关联、自动分析的能力。
所以我后来越来越觉得:
未来很多科研机构真正重要的,并不一定是“先把所有系统建完”。
而是:
先建立一种“围绕科研项目持续沉淀数据”的意识。
哪怕最开始只是:
一个项目资料目录;
一套过程材料归集机制;
一部分关键数据自动同步;
一些基础的AI风险分析;
其实都已经可以开始形成价值。
因为AI治理本身,并不是一个“一次性建完”的工程。
它更像是:
一个持续积累、持续沉淀、持续生长的过程。
七、这个科研经费“自审模型”到底是什么
这个模型其实并不是一个单纯的大模型。
它更像是:
“数据中台 + 审计规则库 + 风险识别模型 + AI推理能力”
共同组成的一套体系。
整个模型,我目前大概把它拆成四层。
1. 数据层
这一层的核心任务,是把原本分散的数据真正组织起来,包括项目数据、预算数据、核算数据、合同数据、采购数据、发票数据、流程数据、人事与绩效数据、成果与验收数据,以及大量非结构化材料。
这一层解决的问题,其实是:
AI到底“看什么”。
2. 规则层(RAG)
这一层其实才是真正的核心。
因为真正有价值的,并不是DeepSeek,也不是通义千问,而是如何把科研经费管理规则、财务制度、审计经验、巡视案例、科研诚信要求,转化为AI能够理解的“治理规则”。
这里面包括:
财务审计规则
财务制度规则
科研项目管理规则
预算执行规则
会计核算规则
合同与采购规则
验收与成果规则
历史审计案例中的风险模式
真正重要的,并不是让AI“背制度”。
而是让AI开始理解:
科研活动、资金行为、项目执行、合同履约、成果形成之间,是否存在逻辑一致性。
八、风险识别层真正识别的,不是“违规”,而是“异常线索”
这一层开始真正进入“审计逻辑”。
但这里有一个特别重要的前提:
AI不能简单地把某一笔支出直接判定为“虚构”“虚列”或者“虚假”。
这些结论需要结合访谈、原始材料、外部取证、实物核验等进一步确认。
AI真正擅长的,其实是:
从项目、预算、合同、发票、审批、支付、成果、人员等数据之间,发现“不一致”“不匹配”“不合理”的风险线索。
比如,很多科研经费违规案例中,经常会出现所谓“虚构测试化验加工费”。
但AI并不是直接认定它“虚构”。
而是分析其中是否存在异常特征。
例如:
项目任务书中没有相关测试内容;
预算中没有对应测验安排;
合同内容表述高度模板化;
检测报告缺少样品编号、检测方法或原始记录;
发票品名与项目研究方向明显不匹配;
同一供应商短时间内为多个项目集中提供类似服务;
付款之后缺少对应成果材料或过程记录。
这些问题单独看未必构成风险,但如果多项同时出现,就值得进一步核查。
再比如,一些案例中会出现“虚列劳务人员”。
AI也不是仅凭劳务发放表就直接下结论,而是会进一步分析:
人员是否真实参与项目;
是否存在任务分工记录;
是否存在会议、成果、过程材料中的参与痕迹;
劳务发放频率和金额结构是否异常;
是否存在集中发放、规律化发放等情况。
再比如,一些所谓“虚假合同”问题,AI真正分析的也不是合同名字,而是合同是否形成真实业务闭环。
例如:
合同内容是否与项目任务书匹配;
合同金额是否与预算科目对应;
是否存在验收记录;
是否存在交付成果;
是否存在服务报告、技术文档或过程材料;
是否存在多个高度雷同的合同文本;
是否存在供应商长期高度集中。
这些其实已经不是简单规则。
而是:
行为模式分析。
所以我后来越来越觉得:
未来真正高级的科研经费审计,可能不再只是“查票”。
而是:
分析科研行为本身是否合理。
九、AI推理层真正重要的,是“解释能力”
这一层我认为非常重要。
因为未来真正高级的AI审计,并不是简单“亮红灯”。
而是能够解释。
它不仅会提示“项目存在异常”,还会进一步分析:
“该项目在结题前一个月集中发生大量低值耗材采购,且供应商高度集中,与项目实施周期存在明显不匹配,建议进一步核查采购合理性。”
也就是说,AI开始像一个真正的“审计助手”。
它不仅发现问题,还能够解释问题。
整个模型最重要的输入,其实并不只是发票。
真正的输入,是科研活动全过程的数据关系,包括项目、预算、预算执行、核算、合同、采购、支付、人员、绩效、成果与验收之间的完整关联。
而它最终输出的,也不仅仅是“有没有违规”。
而是:
风险等级
异常行为
逻辑冲突点
风险线索
关联关系
风险解释
建议核查方向
十、结语:未来真正重要的,是让科研数据第一次真正“连起来”
我越来越觉得,未来科研治理真正重要的变化,可能并不是再增加多少审批,而是第一次让科研数据真正“连起来”。
因为只有数据真正连起来,AI才有可能真正理解科研活动本身。
否则,再强的模型,也只能看到碎片,而无法理解科研行为。
而这,可能才只是开始。
目前,我也正在持续做这方面的探索,包括科研项目全过程数字化档案、科研经费风险识别模型、AI辅助自审逻辑、科研治理数据组织方式等方向,也积累了一些阶段性的实践经验和思考。
我认为,未来科研治理真正重要的,不只是系统建设本身,而是如何让数据真正沉淀为科研机构的治理能力。
当然,这类探索本身更多还是开放性的技术与管理思路交流,并不涉及具体单位内部数据、业务细节或管理机密。
如果大家对科研经费“自审模型”、科研项目全过程数字化档案、科研治理中的AI应用等方向感兴趣,也欢迎一起交流探讨。
夜雨聆风