OpenClaw 技能库之教育板块 (二):math-edu-assistant

越来越多孩子在假期或周末,习惯用大模型(比如豆包等)来辅助答题。但也收到了不少来自学生最真实的反馈:“看不懂。”
毫无疑问,AI 在多领域的知识储备超越了任何一位老师。但这也是一把双刃剑:正因为它“懂太多”,导致它在讲题时极易脱离学生的实际学情,给出高维度的“超纲”解法。如何让 AI 降维、把题目讲得贴合考纲,成了日常辅导的一大难题。
最近因为给家里娃辅导一道数学题,我无意间触碰到了 OpenClaw 中的一个特定技能:math-edu-assistant。带着解决上述痛点的好奇,我去拆解了它的底层架构。
其实让 AI 讲题很简单,给段 Prompt 设定个身份就行;难的是如何让它不越界。在这个技能里,开发者给出了一种非常经典的工程化解法。


它没有用花哨的提示词去感化大模型,而是用四份物理文件,强行给 AI 加上了认知护栏:
1. curriculum_map.md(课程地图):拒绝“跨级打怪”的导航仪
很多 AI 在教数学时,缺乏知识拓扑的概念,这是引发超纲的根源。 这份地图就是 Skill 的“导航”,它硬性规定了知识的先后依赖关系。如果系统的底层记忆(USER.md)显示该学生的基础地基没打好,Agent 就会表现得极其冷酷——它会拒绝教授高阶内容,强制引导学生回溯前置知识点。这种“不通关不放行”的刚性逻辑,才叫真正的循序渐进。
2. knowledge_points.md(知识点矩阵):死磕核心大纲
这份文件将宏观的数学大纲拆解成了原子化的核心知识点。它的作用是给 AI 上一把锁,确保 Agent 输出的每一步推导都紧扣当前阶段的教学目标,杜绝自由发挥和发散讲废话。
3. grading_rubric.md(评分量表):无情的“标准判官”
作为老师,日常最头疼的就是评分标准的漂移。这份量表把原本模糊的“给分点”变成了硬性的代码指标。 无论是步骤分还是结果分,Agent 必须死磕这份文件。它不会因为 AI 那极好的“认错态度”就给学生放水,也不会因为心情好就多给两分。这种冰冷的确定性,恰恰是给学生建立逻辑严谨性最好的反馈。
4. question_templates.md(题目模板):拒绝随机生成的“脚手架”
题海战术没有意义,基于考纲的针对性训练才有价值。这里的模板为 AI 生成练习提供了标准的“脚手架”支撑,确保给学生推送的每一道题都有据可依,而不是让大模型像掷骰子一样随机乱编。


我自己动手把这个技能跑了一遍,客观来说,部署的工程门槛挺低的。
但它揭示了一个很务实的道理:工具虽然好用,但大模型只能负责输出,真正决定教学质量的,依然是教师对底层知识图谱和教学法边界的专业判断。给 AI 立好规矩,它才能成为合格的数字助教。
夜雨聆风