今天接到一项项目奖项申报评审任务,需全面审核申报资料、对照评分标准出具评分与评审意见。这是我首次完整尝试用 AI 辅助参与专业评审工作,为保证结果严谨、验证 AI 的实际落地价值,我采用人工评审 + 多模型 AI 评审双线并行模式,全程独立记录、最后统一复盘,形成了一套可复用的专业评审流程。
一、评审流程:严谨有序,多模型交叉验证
为避免 AI 评分干扰人工判断,我刻意将流程分为先人工、后 AI两个阶段,保证独立客观的判断空间。
1. 搭建知识库:高效读取资料
首先用 Trae 建立专属项目目录,将所有申报材料(合同、实施资料、佐证材料等)统一归档,再通过 Trae 打开该目录,搭建起专属私有知识库。这一步让 AI 能基于完整上下文进行阅读、拆解与分析,彻底摆脱碎片化问答的局限,为后续精准分析奠定基础。
2. 人工先行:建立客观基准
完成知识库搭建后,我先人工通读全部资料,对项目背景、落地价值、实施概况建立清晰认知。随后对照官方评分标准,独立人工打分、纸质记录,全程不参考任何 AI 预判,只为留存最真实的人工评审结果,作为后续多模型对比的基准。
3. 多模型 AI 评审:交叉校验 + 自我校准
人工评分完成后,才正式启动 AI 评审,分别使用Trae、豆包专家模式、Deepseek 深度思考模式,基于同一知识库、同一评分标准独立评分。其中最关键的一步,是在大模型给出首轮评分后,追加一轮复盘检查:“请复盘本次打分,判断是否客观、维度是否全面,是否存在宽松放水,重新校准并修正分数”。这一操作带来了极有意思的结果:三个大模型均主动下调了 2-3 项分值,首轮的 “温和宽容” 在二次复盘后得到修正,评分标准更趋严格客观,与人工评审的逻辑更贴合。
二、三大核心感悟:AI 落地的本质与效率沉淀
1. 人工与 AI 结论趋同,差异属正常现象
本次评审中,人工评分与多模型 AI 评分结论高度一致,整体判断方向、核心结论无颠覆性偏差;不同大模型之间虽存在小幅分值差异、评审侧重点不同,但整体区间与逻辑统一。这就像现实中不同专家评审的区别,每个人关注的细节、衡量的维度略有差异,但不影响结论的有效性,也印证了 AI 正在精准模仿专业专家的思维方式,具备可靠的辅助价值。
AI 早已不是单纯的工具,而是职场专业工作的重要协作伙伴。本次奖项评审的实战证明,前期搭建流程、沉淀方法、优化提示词,后期就能享受指数级效率提升。在 AI 时代,职场的核心竞争力不再是 “单纯完成工作”,而是 **“搭建 AI 协作体系、沉淀专业方法论、让 AI 高效落地专业场景”**。学会分步沟通、用好提示词、搭建专属知识库、沉淀可复用流程,我们就能从 “重复劳动的执行者”,升级为 “AI 协作的主导者”,在时代变化中拉开与他人的差距。
附:提示词分享
使用说明:
基础版:快速获取核心信息
优化版:输出结果更系统、更专业
序号
提示词用途
基础版提示词(快速查询)
优化版提示词(专业输出)
1
项目技术合同全面分析
分析项目主要内容、技术特点、行业亮点等,针对数字孪生与 AI 驱动的精准运行控制技术方面,给出重点分析。
对文件《技术开发合同.pdf》进行全面分析,重点包括项目主要内容概述、核心技术特点解析及行业应用亮点提炼。针对数字孪生技术与 AI 驱动的精准运行控制技术两个关键领域,进行深入重点分析:详细阐述数字孪生技术的具体应用场景、数据采集与建模方法、可视化呈现方式;深入剖析 AI 算法在运行控制中的实现路径,包括但不限于预测模型构建、决策支持系统架构、实时调度优化机制等。分析过程中需结合合同文件中的技术指标、功能模块描述及实施要求,形成专业、系统的技术分析报告。
2
AI 全系统功能落地梳理
人工智能的应用体现在哪些具体的系统功能里面?
同基础版
3
奖项申报评分建议生成
本项目申报奖项 “数字孪生与 AI 驱动的精准运行控制技术”,综合分析项目特点、技术研究报告、科技查新报告等资料,按照《应用技术类科技成果评价指标体系 3.0》,给出评分建议。
基于项目申报奖项 "数字孪生与 AI 驱动的精准运行控制技术" 的需求,综合分析提供的项目资料,包括《技术开发合同.pdf》《工作报告.pdf》《技术研究报告.pdf》《科技查新报告.pdf》《发明专利证书 - 监测系统、方法及存储介质.pdf》和《应用技术类科技成果评价指标体系 3.0.pdf》等文件,依据《应用技术类科技成果评价指标体系 3.0.pdf》标准,对项目进行全面评估并给出详细的评分建议。每个评分项需提供具体的评分理由和依据,并引用相关文件内容作为支撑。