
律
LEGAL LENS
鉴
2026/4/12
AI初创产品系列
期号:260403
AI初创产品
律鉴团队是在Vibe Coding与AI时代,期待创新与实践的法学生们。我们在初创过程中,意识到自身优势在于法律专业性与初创思维的结合。本篇以本地部署的知识库为例,进行一些关于 [团队知识库] 的分享。
💡 引言:之前曾经听过一位律师的分享,说团队花了两个月把过去五年的办案模板全部扫描进了某产品知识库,结果AI检索出来的东西还是在 [编造] ——问它一个关于非法证据排除的案例与实操模板,它给你推了一堆条文。他说了一句很扎心的话:这东西还不如我让实习生翻卷宗,至少实习生知道我问的是什么。我们团队得这个问题值得认真聊一聊。因为他踩的坑,可能正是目前大多数律师团队在AI知识库这件事上最普遍的误区。
一、堆PDF不叫建知识库,叫给AI喂垃圾
先说结论:把过往的案卷、合同范本、工作总结一股脑塞进向量数据库,不做任何预处理,这不是在建知识库——这是在给AI制造噪音。
据行业实践反馈,法律RAG系统中绝大多数所谓的「生成错误」,根因其实是「检索失败」。你以为AI给出了错误答案,其实是因为原始数据的质量太差。拿PDF来说。一份完整的合同条款,可能被机械切片之后拆成了三个毫无上下文的碎片。AI拿着这三个碎片去「理解」你的合同逻辑,就会导致质量过差。
但更深层的问题不在格式,而在思路。很多团队的想法是:我把所有的工作经验和历史资料都丢进去,AI自己会学、会总结、会举一反三。
这个假设是错的。
不是所有的工作内容都适合被AI「自动总结」成经验。如果你给AI一堆散乱的工作记录,让它自己去提炼办案思路,得到的大概率是一团正确但没用的废话——因为它没有你的专业判断力,它不知道哪些是关键信息、哪些是背景噪音、哪些步骤之间有因果关系。不添加指导地用AI来总结你的经验,可能效率比你自己整理还低。
二、别等AI出错再纠正,要在它开工之前就定基调
换个角度想这件事。
你团队带过实习生没有?实习生进团队的第一天,你会怎么做?
最差的做法是:把一摞卷宗往桌上一扔,说你自己看,有问题问我。然后等他写出一份漏洞百出的法律意见书之后,你再花一个小时帮他改。你改了一遍,他下次换个案子,照样犯同样的错。因为他不知道你的思路是什么,你的办案范式是什么,他只能靠一次次试错去猜。
最好的做法是:开工之前先花半小时跟他讲清楚——这类案子我们团队怎么拆争议焦点,检索的时候先查哪些关键词,法律意见书的结构按什么模板走,判断风险等级的标准是什么。你把基调定好,他上手就快。
知识库也是同样的逻辑。
你不能指望AI像一个干了十年的资深律师那样,看完一堆原始材料就自动知道该怎么用。你得先给它「注入」你的办案范式——就像你给实习生做入职培训一样。
具体来说就是三件事:
第一,关键词标注。把你团队最常处理的业务类型,对应的争议焦点检索词、常用法条、典型案由,整理成一套结构化的词库。这相当于告诉AI:当用户提到这类问题的时候,你应该在这些方向上去找答案。
第二,流程范式。把你团队处理某类事务的标准步骤——从接收材料、拆分问题到检索法规、输出意见——定义成一套明确的流程模板。这相当于告诉AI:你不是一股脑地搜完就回答,你应该按这个顺序一步步来。
第三,工作总结的结构化。每做完一个案子或一次咨询,不是写一篇散文式的复盘,而是按固定字段提取关键信息——案由、争议焦点、适用法条、检索关键词、最终结论。这些结构化的总结,才是真正能被知识库高效利用的「黄金数据」。
在向量检索之前引入标签过滤和元数据管理,可以把检索精准度提升一个量级。道理很简单:你不是让AI在一片汪洋大海里捞针,而是先告诉它去哪片海域,再让它捞。
三、我是怎么在OpenClaw里验证这套思路的
说到这里就不得不提OpenClaw了。
OpenClaw它本身不是知识库,但它可以作为「调度中枢」,把知识库的检索和业务流程串起来。
我们团队在应对在实际的法律咨询场景中验证了一套分步处理流程,效果比「纯粹聊天机器人」式的问答好很多。
具体的流程是这样的:
▌ 第一步:问题拆解
用户输入一段咨询问题之后,AI不直接回答,而是先把问题拆解为三个维度——案件关键事实、争议焦点、以及可能需要的法律检索关键词。
比如用户问:「公司拖欠工资三个月了,我能不能直接辞职要赔偿?」
AI拆解后:关键事实是「公司拖欠工资三个月」;争议焦点是「劳动者能否以此为由主张被迫解除劳动合同并获得经济补偿金」;检索关键词包括「劳动合同法第xx条」「被迫解除」「经济补偿金计算标准」。
▌ 第二步:定向检索
拿着拆解后的关键词和争议焦点,去知识库里做精准检索——而不是拿用户的原始问题直接丢给向量数据库。
这一步的差距有多大?举个例子:如果你直接用用户的原话「公司拖欠工资我能不能要赔偿」去做向量检索,系统可能会返回一堆关于「工资支付条例」的泛泛内容。但如果用拆解后的「劳动合同法第xx条 + 被迫解除」去检索,命中率完全不是一个级别。
▌ 第三步:结构化输出
检索完成后,AI按照预设的模板输出答案——包括法律依据、风险提示、建议操作步骤。不是一段长篇大论的散文,而是结构清晰、可以直接用的法律意见框架。
整个流程跑下来,最核心的改变是:AI不再是一个「有问必答的聊天机器人」,而更接近一个「按你团队的办案流程在工作的律师助理」。
四、知识库的终极形态:AI律师助理系统
如果把这条路走到极致,最终的理想状态是什么?
我们团队认为是这样的:整个团队共享一套经过结构化处理的知识体系,再加上一套针对你团队业务的AI处理流程——两者合在一起,形成一个「AI律师助理系统」。这个系统不是通用的法律问答机器人,而是只属于你这个团队的、按照你的业务方向定制的、处理流程按照团队的办案习惯设计的。
这和目前大量的法律AI产品走的方向不同。市面上大多数产品追求的是「大而全」——要涵盖所有法律领域、要服务所有类型的律师。但实际用过的人都知道,大而全的结果往往是哪个方向都不够深。一个做婚姻家事的律师和一个做商事仲裁的律师,对AI的需求完全是两回事。
真正能产生效率增量的法律AI,一定是高度适配你自己团队业务的。
五、给正在用AI但效果不好的团队三条建议
如果你的团队已经在用法律AI工具,但总觉得不好使,我建议你从这三个地方入手检查:
▌ 第一,检查你的数据质量
打开你的知识库,看看里面的内容是不是一堆未经处理的原始PDF。如果是,先停下来做预处理——文档拆分、关键词标注、元数据整理。这是地基。地基不牢,上面搭什么都会塌。
▌ 第二,定义你的检索流程
不要让AI拿到用户的原始问题就直接去搜。加一层问题拆解——把自然语言转化为法律要素(关键事实、争议焦点、检索关键词),再带着这些精准的要素去知识库里找答案。这一步的投入产出比极高。
▌ 第三,把你的办案范式「教」给AI
你团队处理某类案件有固定的步骤和思路,把它们整理成模板,注入到系统里。不要指望AI自己从散乱的历史数据中「悟」出你的方法论——这和你不能指望实习生第一天就能像你一样办案,是一个道理。
六、写在最后
法律AI的瓶颈未来一定不是模型不够聪明,而是我们喂给它的东西不够好、指导它的方式不够对。
一个被精心培养的实习生,几个月就能上手独立办案。一个被胡乱投喂的AI知识库,用三年也只会输出正确的废话。
OpenClaw加上一套经过结构化处理的本地知识库,给了每个愿意动手的律师团队和技术创业者一个可能性——不再等产品厂商的标准化方案,而是自己打造一个真正懂你业务的AI律师助理。
如果您认为本文方向是对的,欢迎与我们团队交流,我们可以像团队实习生一样,辅助您团队的知识库成长。
💬 你怎么看?欢迎留言交流。📌 觉得有用,转发给身边的法律人或对AI感兴趣的朋友。
律 鉴
LG
希望我们在自身产品开发与上架过程中的些许经验,能够帮到您的产品。同时我们也提供更详细一套流程的条款设计帮助,欢迎交流!但请您知悉,我们不是专业律师,仅作为团队间沟通交流,我们希望以各自的强项在Vibe Coding时代走得更远!



微信号丨18124785936
小红书丨律鉴 Legal Lens
【重要声明】 本文所含信息仅为一般性参考之用,不应被视为任何形式的法律、财务、投资、医疗或其他专业建议。 本公众号及作者已尽力确保所提供信息的准确性和完整性,但不对其作任何明示或暗示的保证。读者不应仅依赖本文信息作出任何决策,在采取任何行动前应咨询相关领域的专业人士。 对于因依赖本文任何内容而导致的任何直接或间接损失,本公众号及作者概不负责。
夜雨聆风