最近OpenClaw火得不得了。朋友圈里到处都是“养龙虾”的狂欢,各个行业都在基于OpenClaw搭建智能体。很多朋友给我发信息,问我们是否有类似的产品。我们在这个工具刚出来的时候就赶紧安装测试。这和之前专利垂直大模型的故事如出一辙。
熟悉我的朋友都知道,早在大语言模型刚出来的时候,国内就掀起了一波“专利大模型”“法律大模型”的热潮,无数机构宣布要训练专利领域的垂直大模型。我在那时候就公开说过,专利垂直大模型这条路没有什么价值。原因很简单:专利数据本身极度标准化,日常的专利场景,说明书格式、权利要求结构、审查意见答复模板都是公开的。更关键的是,底层通用大模型在预训练阶段就已经大量采用了专利数据。在这个基础上做局部参数微调,不但不能使效果显著提升,反而可能严重损害模型的泛化能力,而模型的泛化能力正是专利工作中最看重的。后来的事实证明了这个判断,专利大模型的故事,基本都没了下文。
回到今天的OpenClaw,是同样的模式在重演。只不过上一轮的热词是“垂直大模型”,这一轮换成了“龙虾”或者类似的名字。名字变了,但核心问题没变,真正制约AI在专利行业落地的瓶颈,从来不是流程串联的问题,而是推理能力和领域知识的深度融合问题。
专利行业最需要的不是更好的流程编排工具,而是更强的推理能力,OpenClaw恰恰提供了前者,却无力触及后者。 OpenClaw可以把各种LLM调用串联成一条漂亮的管道,但管道里流的水,大语言模型的推理质量却无能为力。
OpenClaw的本质是一个通用型AI智能体框架。它能读写文件、运行脚本、控制浏览器、 定时执行任务、跨会话记忆。这些能力在办公自动化场景下确实强大,但对于专利行业而言,执行并不是瓶颈,一个能自动下载审查意见通知书、提取驳回理由、填充答复模板的流程,和一个能真正理解发明点、识别审查员逻辑链薄弱环节、提出有说服力的创造性论证的系统,是完全不同层次的问题。
专利实务的核心挑战在于推理,而非流程,创造性驳回之所以难以回应,是因为它本质上是一个法律、技术与策略交织的复杂推理问题:代理人必须同时深入理解发明的技术实质,逐条分析多篇对比文件的实际教导内容, 判断"本领域技术人员"是否会认为组合方案不具有创造性,还要策略性地判断哪些论点最可能说服这位特定的审查员。有经验的代理人会采用多重攻防策略,质疑最接近现有技术的选择、挑战区别技术特征的认定、攻击技术启示的存在性、反驳公知常识主张的合理性。专利审查过程是一场博弈。
权利要求撰写的难度同样超出流程自动化所能触及的范畴。专利代理人的核心任务是从发明人往往模糊、不完整的技术交底中提炼真正的发明点,然后在足够宽泛与足够具体之间找到精确的平衡。
OpenClaw把LLM调用、工具调用、数据源、工作流连接成一条流畅的管道。但管道本身不能改善流过其中的水的质量。答复好审查意见、撰写好权利要求本质还是依靠模型本身的能力,流畅的流程不不能使得推理能力提高多少。通俗地说,自动化的流程并不会根本提高答复和撰写的质量,你能看到基于Openclaw产生的“能力”,并不是其真正的能力,还完全是来自底层模型的能力。一个对模型和业务真正熟悉的专业人员,完全不需要这个自动化流程反而做得更好。
此外自动化的流程让幻觉产生产生放大效应。对于专利行业,即使将OpenClaw的技能系统与专利数据库、审查意见解析器、权利要求模板完美集成,所构建出来的系统仍然受限于底层LLM的推理质量。
当然,我们也不能否认Openclaw的用途,现在很多复杂流程的场合,Openclaw框架极大提高效率。但是在答复、撰写这些完全依赖模型底层能力的场合无能力。
答复OA要做到真正可用,需要对创造性、不支持等各类驳回积累大量案例与应对技巧,再与模型的底层推理能力深度结合,才可能产出经得起审查的结果。撰写的门槛更高,但坦率地说,当前大语言模型的能力已经在逼近实用临界点,突破已经不会太远,但这个突破来自对专利业务认知本身的深耕和模型能力边界的理解,而不是套一层编排框架。
我们在AI辅助撰写与答复方向上做了较长时间的探索,一年多前推出测试,对当前技术的能力边界和实际天花板有比较清晰的认知。如果各位同行对这个方向感兴趣,欢迎交流探讨。


📚往期精选文章
专利无效检索分析的十大策略(序):无效检索分析是个系统的工程
专利无效检索的大杀器,Articleone Partner的悬赏众包模式
夜雨聆风