我用 300 块硬件+本地 AI,给自己做了个课堂助手
2026-04-03
整了个“小玩具”
买了个 M5Stack Core S3,连上本地部署的 OpenClaw,放在桌面上当语音助手。一周下来,它帮我查作业数据、提醒上课、分析学生掌握情况。不完美的,但比我想象中实用。
为什么做这个?
老师的一天很碎:上课、批作业、开会、备课……经常忘记下节课在哪、几点开会。手机提醒太吵,电脑提醒看不见。我想要一个放在桌面上、能听我说话、能主动提醒我的东西。
刚好手上有 M5Stack Core S3(300 多块的开发板),又本地部署了 OpenClaw(AI 助手框架),就想:能不能把它们连起来?
![]() | ![]() |
怎么实现的?
【硬件外观图】
硬件端
M5Stack Core S3,2 寸触摸屏 + 摄像头 + 麦克风 + 扬声器。放讲台/桌面上,按一下按钮,或者碰下屏幕就可以开始说话了。
AI 端
本地部署的 OpenClaw,通过 Wi-Fi 接收语音指令,调用飞象星球 API 查作业数据,分析学生掌握情况,生成提醒。
连接方式
M5Stack 通过 MCP(Model Context Protocol)连接 OpenClaw,语音识别和合成用阿里云 ASR/TTS,数据来源是飞象星球 API。
【架构图:硬件 → MCP → OpenClaw → 飞象星球/阿里云】
自建服务器的朋友,可以参考这个仓库:https://github.com/hackers365/xiaozhi-esp32-server-golang

实际能做什么?
【演示视频:语音查作业数据】
(本来这块想演示一下,但是涉及到了学生的姓名和数据,不好展示了哈)
「上次作业谁没交?」→ 它会列出名单,顺带告诉我哪些学生掌握不到位 「下节课重点是什么?」→ 基于作业数据,建议下节课要讲的知识点 「几点开会?」→ 提醒今天的日程安排 「该上课了」→ 提前 5 分钟提醒下节课时间、地点、班级
【演示视频:可以看看通过硬件交互让它语音打开指定网站】
问题
聆听延迟有点高,说完话要等一会儿才响应 语音识别和合成本身还可以,但整体交互流畅度需要优化 2 寸屏幕太小,显示信息有限 目前只连了飞象星球,其他平台还在适配 需要本地部署 OpenClaw + 配置 MCP,对老师有一定技术门槛
体验
不是完美的产品,但证明了「硬件 + 本地 AI」在教育场景是可行的。它不是那种买了就吃灰的东西,而是真的在帮我省时间。
下一步打算:接入更多平台(如钉钉、企业微信),优化语音识别,看看能不能给其他老师也搞一个。
以及整理和整合更多实际场景的 skill 用于硬件中
如果你也想试试,硬件 300 多,OpenClaw 开源免费,技术门槛不算高。有问题可以评论区聊聊。
AI教育观察
关注AI教育前沿动态,每周精选深度解读
夜雨聆风
