我做了一个 AI-PBL 教学设计助手:让 AI 不只是“写教案”,而是帮助教师重构课程
我做了一个 AI-PBL 教学设计助手:让 AI 不只是“写教案”,而是帮助教师重构课程
最近,我完成并发布了一个教师内测版智能体:
AIP-TDA3.0-MVP|AI-PBL教学设计助手教师内测版V3
AI-PBL Teaching Design Assistant for Teacher Pilot Use
这个名字有点长,但它想解决的问题很简单:
应用型大学教师如何借助 AI,把传统讲授式课程,重构为真正面向问题、面向能力、面向证据的 PBL 教学单元?
换句话说,它不是一个“自动写教案工具”,也不是一个“替老师完成教学设计的机器人”。它更像一个教师身边的 AI-PBL 教学设计教练(Teaching Design Coach),帮助教师把课程内容转化为:
- 真实问题(Driving Problem)
- 问题任务(Question Tasks)
- 学习证据(Evidence)
- 评价量规(Rubric)
- AI 使用边界(AI Boundary)
- 教学设计沉淀(DesignHub)
我越来越强烈地感到:AI 时代真正改变教学的,不是“AI 能不能帮我写一份 PPT”,而是它能不能帮助教师重新思考——学生到底应该通过这门课学会解决什么问题。
一、为什么我要做这个智能体?
过去我们做课程设计,常常是从“知识点”开始:
今天讲概念,明天讲方法,后天做练习,最后考试。
这种方式当然有价值,但在应用型大学里,它经常遇到一个尴尬问题:
学生学了很多知识,却不知道这些知识能解决什么真实问题。
尤其是在酒店管理、工商管理、人力资源管理、金融、旅游、数字营销等应用型专业中,学生最需要的不是背诵一套标准答案,而是能够面对真实场景,提出问题、分析证据、设计方案、表达判断。
这正是 PBL(Problem-Based Learning,问题导向学习) 的价值。
但 PBL 也有现实困难:
教师知道 PBL 好,但不知道如何把自己的课程单元改成 PBL。
教师知道要培养能力,但不知道如何设计可观察的任务。
教师知道要评价过程,但不知道 Evidence 和 Rubric 怎么做。
教师知道学生可以用 AI,但又担心 AI 替学生完成作业。
于是,我尝试做了 AIP-TDA3.0-MVP。
它的基本目标是:
帮助教师把“我要讲什么”,转化为“学生要解决什么问题、留下什么证据、如何被评价”。
二、AIP-TDA3.0-MVP 是什么?
AIP-TDA 是:
AI-PBL Teaching Design Assistant
AI 赋能 PBL 教学设计助手
目前发布的是:
AIP-TDA3.0-MVP|教师内测版V3
其中,MVP(Minimum Viable Product,最小可行产品) 的意思是:
它不是一个完全成熟的平台,而是一个可以运行、可以测试、可以给教师试用、可以继续迭代的原型。
我没有把它设计成一个“万能聊天机器人”,而是采用了一个 Hub + 多智能体(Multi-Agent) 的结构。
它主要包括三个核心节点:
- Design Coach|教学设计教练
帮助教师生成 AI-PBL 教学设计草稿。 - Governance Lite|轻量治理检查员
帮助检查教学设计是否存在问题,比如任务是否完整、证据是否清楚、AI 是否越界。 - Feishu Formatter|飞书结构化助手
把教学设计整理成可复制到飞书多维表的结构化表格。
如果用生活化比喻来说:
-
Design Coach 是“教学设计合伙人”; -
Governance Lite 是“上课前质检员”; -
Feishu Formatter 是“资料打包员”; -
Hub 是“项目调度员”。
这个智能体不是简单地“生成内容”,而是尝试形成一个闭环:
生成设计 → 检查设计 → 结构化沉淀 → 教师再校准
三、它能帮助教师做什么?
以我正在讲授的课程《人工智能导论——及其在酒店管理中的应用》为例,AIP-TDA3.0-MVP 可以帮助我把一个传统技术单元改造成 AI-PBL 单元。
例如第六单元:
酒店订单取消预测 KNN
Hotel Booking Cancellation Prediction with KNN
传统讲法可能是:
先讲 KNN 算法,再讲距离计算,再讲 K 值,再写代码。
但经过 AI-PBL 重构后,课程会先从一个真实问题进入:
ABC 智能酒店接到一笔新订单。收益经理想知道:这笔订单更像过去哪些订单?它更可能取消,还是更可能正常入住?
这时,KNN 不再是一个抽象算法,而变成一个管理问题的工具。
学生要思考:
-
哪些订单特征会影响取消风险? -
什么是 Feature(特征)? -
什么是 Label(标签)? -
K 值为什么会影响预测结果? -
标准化(Standardization)为什么重要? -
模型判断高风险后,酒店能不能直接取消订单? -
AI 结果如何转化为前厅确认、收益管理和房态控制建议?
这就从“学算法”变成了“用算法理解酒店管理问题”。
这正是我希望 AIP-TDA3.0-MVP 能帮助教师完成的转变。
四、它不是让 AI 替老师,而是让老师更像设计师
我一直认为,AI 时代教师的角色不是被替代,而是升级。
教师不再只是知识讲授者,而要成为:
- 学习任务设计者(Learning Task Designer)
- 问题情境创设者(Problem Scenario Designer)
- 证据链设计者(Evidence Designer)
- 评价量规设计者(Rubric Designer)
- AI 使用边界的把关者(AI Boundary Keeper)
AIP-TDA3.0-MVP 的价值,不是帮老师“省掉思考”,而是帮老师把思考结构化。
比如,当教师输入一个课程单元后,智能体会尝试生成:
- Course Fit|课程定位
这个单元适合什么学生、什么学时、培养什么能力。 - Driving Problem|驱动问题
用真实场景提出核心问题。 - Sub-question Chain|子问题链
把复杂问题拆成递进式问题。 - PBL Phases|PBL阶段
设计问题构建、探究分析、方案优化等阶段。 - Question Tasks|问题任务
每个阶段学生要完成什么任务。 - Evidence|证据产出
学生必须提交什么可评价材料。 - Rubric|评价量规
如何区分不同质量水平。 - AI Moments|AI使用节点
哪些环节可以用 AI,哪些环节不能让 AI 替代学生。
这套结构对教师很重要。因为没有结构,AI 生成的东西很容易“看起来很好,实际上不好用”。
五、为什么我特别强调 Evidence 和 Rubric?
在 PBL 中,最容易出现的问题是:课堂很热闹,但学习是否真正发生,很难判断。
所以我特别强调两个词:
Evidence|证据
Rubric|评价量规
Evidence 是学生学习过程留下的“痕迹”。
比如:
-
问题定义表; -
数据字段说明; -
K 值对比记录; -
标准化前后结果说明; -
最近邻样本解释; -
管理行动建议卡; -
模型局限反思。
Rubric 是判断这些证据质量的尺子。
我常说:
没有 Evidence 的 PBL,很容易变成热闹的讨论课;
没有 Rubric 的 PBL,很容易变成凭感觉打分。
AIP-TDA3.0-MVP 希望帮助教师在设计阶段就想清楚:
学生最后交什么?
教师如何看出学生真的学会了?
什么样的表现算基础?什么样的表现算优秀?
AI 在其中是脚手架,还是已经越界成了“代工作业员”?
六、为什么还要有 Governance Lite?
很多老师一听 “Governance(治理)” 就觉得是技术部门的事。
其实在 AI-PBL 教学里,治理很简单:
给 AI 生成的教学设计做一次“上课前体检”。
我在 AIP-TDA3.0-MVP 中设置了一个 Governance Lite|轻量治理检查员,主要检查:
- Evidence Completeness|证据完整性
学生有没有明确产出? - Rubric Alignment|量规对齐
评分标准是否真的评价了目标能力? - Answer Leakage Risk|答案泄漏风险
AI 有没有替学生把作业做完? - AI Boundary|AI 使用边界
AI 是辅助,还是越界替代? - Question Type Control|问题类型控制
问题任务是否使用统一类型,如 Clarifying、Probing、Evaluating、Creative、Behavioural、Reflective。
|
|
|
|
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
- Anchor Validity|锚点有效性
智能体是否真的依据知识库,而不是“看起来像引用”。 - Gate Status|门控状态
用 PASS / WARNING / BLOCKED 告诉教师这份设计能不能进入下一步。
我给教师解释时常用一个比喻:
Governance 不是给老师找麻烦,而是像红黄绿灯。绿灯可以走,黄灯先修一修,红灯必须停下来。
这很重要。因为 AI 越强,越需要边界。
AI 可以帮学生找路,但不能替学生走路;可以帮学生磨刀,但不能替学生下厨。
七、为什么暂时不直接连接飞书 API?
AIP-TDA3.0-MVP 目前设置了 Feishu Formatter|飞书结构化助手。
它不是直接读取或写入飞书,而是先把教学设计整理成:
Feishu-ready Tables|飞书可录入表格
例如:
-
Courses|课程表 -
Lessons|课次表 -
Scenarios|案例表 -
Question_Tasks|问题任务表 -
Rubrics|评价量规表 -
AuditEvents|治理检查记录表 -
Iteration_Log|迭代记录表
为什么不一上来就做 API 自动写入?
因为教师讲座和内测阶段,真正重要的是让老师理解教学价值,而不是被权限、Token、字段 ID、飞书 API 搞得头大。
我现在采用的策略是:
先 Feishu-ready,再 Feishu-connected。
先让内容适合进入飞书,再让系统自动进入飞书。
这一步看似保守,但更稳。
在教育技术应用中,最怕的不是功能少,而是功能太多、老师用不起来。
八、它目前适合哪些教师使用?
AIP-TDA3.0-MVP 特别适合应用型大学教师,尤其是以下几类课程:
-
酒店管理; -
人力资源管理; -
金融; -
市场营销; -
旅游管理; -
电子商务; -
健康服务管理; -
数字媒体; -
创新创业; -
人工智能通识与专业融合课程。
只要教师面对的问题是:
我有一个传统课程单元,想把它改造成问题驱动、任务驱动、证据驱动的教学设计。
这个智能体就可以提供帮助。
它尤其适合应用型课程,因为应用型课程最需要解决的问题不是“知识讲没讲完”,而是:
学生能不能用知识解决真实问题?
九、我现在如何使用它?
以《人工智能导论—及其在酒店管理中的应用》为例,我已经为它建立了第一批课程知识库,包括:
- Course Profile|课程画像卡
- AI + Hotel Domain Knowledge|AI 与酒店管理领域知识
- ABC Smart Hotel Cases|ABC 智能酒店案例库
- Lesson Cards|课次知识卡
- Final PBL Project Guide|期末小组项目任务卡
比如:
第六单元是 KNN 与酒店订单取消预测。
第七单元是 决策树与 PMS 可解释判断。
期末项目则要求学生围绕 ABC 智能酒店真实问题,完成一个体现课程 AI 知识点的小组项目。
这意味着,AIP-TDA3.0-MVP 不再只是一个通用 PBL 助手,而开始具备课程级理解能力。
它知道这门课的学生是谁,课程主线是什么,酒店管理场景是什么,PBL 项目如何推进,评价标准是什么。
当然,它还在内测阶段。它会犯错,也会跑偏,也需要教师二次校准。但这正是内测的意义:让工具在真实教学中长大。
十、我对应用型大学教师的一点建议
我越来越觉得,AI 时代的教师不能只问:
AI 能不能帮我写教案?
更应该问:
AI 能不能帮助我重新设计学习?
应用型大学最需要培养的,不是“标准答案的熟练工”,而是:
-
真实问题的发现者; -
复杂情境的分析者; -
AI 工具的驾驭者; -
证据链的建构者; -
管理方案的表达者; -
有边界意识的行动者。
这也是我做 AIP-TDA3.0-MVP 的初衷。
它不是一个完美系统,而是一个开始。
一个从“AI 帮我生成内容”走向“AI 帮我重构教学”的开始。
结语:教师真正要升级的,不是工具,而是教学设计能力
AIP-TDA3.0-MVP 目前只是教师内测版。
但它已经让我看到一种可能:
未来的教师,不一定要成为程序员,但必须学会与 AI 协作设计学习。
未来的课程,不一定都要变成技术课,但必须能够让学生在真实问题中使用技术。
未来的 AI 教学工具,也不应该只是“写稿机器”,而应该成为教师的课程重构伙伴。
我希望 AIP-TDA3.0-MVP 能成为这样一个小小的起点。
如果说传统教学更像“把知识端上桌”,那么 AI-PBL 更像“带学生一起进厨房”。
菜谱可以由 AI 帮忙整理,工具可以由 AI 提供支持,火候可以由数据辅助判断。
但最后,真正决定这道菜有没有味道的,仍然是教师的教育判断、学生的真实参与,以及课堂中人与人之间的温度。
这也是我始终相信的一点:
AI 可以生成内容,但教育必须生成成长。
AI can generate content, but education must generate growth.
夜雨聆风