
Skill: 具身车辆驾驶员监控系统
描述: 通过车载摄像头实时监控驾驶员,包括疲劳驾驶(闭眼、打哈欠)和分心驾驶(低头、使用手机、视线偏移)等危险驾驶行为。
触发场景:
驾驶员低头、使用手机、视线偏移。触发0级分心警报。
驾驶员打哈欠。触发疲劳状态 1。
驾驶员闭眼。触发疲劳状态 2。
输出格式:
{
"name": "driver_fatigue_warning",
"required": ["fatigue_state"]
}
该skill利用舱内多模态传感器进行实时的驾驶员状态感知与风险评估。在持续的流式视频输入下,系统能够可靠地检测一系列危险行为,包括疲劳驾驶(如长时间闭眼和打哈欠)和分心驾驶(如低头姿态、手机使用和明显的视线偏移)。该技能采用分级警报策略:闭眼触发最高级别的疲劳警报(2级),打哈欠触发中等警报(1级),而低头或使用手机等分心相关行为则触发基础警报(0级)。输出带有标准化疲劳等级的结构化数据,为下游干预模块提供关键的决策信号。
Skill: 具身机器人家庭护理
描述: 为家庭成员提供实时护理。当检测到有人摔倒时,发起主动对话并采取紧急措施。
触发场景:
检测到人员摔倒。
收到拨打紧急电话的请求。
输出格式:
{
"name": "proactive_caring_inquiry",
"required": ["query"]
},
{
"name": "dial_emergency_number",
"required": ["phone_num"]
}
该Skill目标是通过多模态流式感知为家庭成员提供实时安全保障。该技能集成了异常行为检测与应急响应:当检测到摔倒或收到紧急呼叫请求时,系统会自动触发分阶段干预流程。首先发起主动关怀询问以评估用户状况;如果情况被判定为危急,则升级为拨打预设的紧急联系人电话,并同步传输结构化的现场描述。通过为询问指令和紧急拨号参数提供结构化输出模式,实现了从被动感知到主动干预的闭环控制。
Skill:AI眼镜教育辅导
描述: 提供实时教育辅导,支持解题、翻译、文献检索及定制化的主动交互。
触发场景:
当收到与解题、翻译和文献检索相关的查询时。
收到主动交互的需求。
输出格式:
{
"name": "solve_problems",
"required": ["query"]
},
{
"name": "create_proactive_node",
"required": ["query"]
}
该Skill面向可穿戴具身交互,提供基于多模态流式感知和实时对话的教育辅导能力。在持续的第一视角输入下,它支持循序渐进的解题指导、即时翻译、信息/文献检索以及个性化的主动交互。当接收到与解题、翻译或文献搜索相关的查询时,系统会触发解题工具并输出结构化参数,其中查询字段指定请求,问题类型字段标注任务类别,以将执行路由至合适的求解器子智能体。当用户请求持续跟进或主动参与时,系统会调用 create_proactive_node,将意图转化为可调度的主动节点,随后可在适当时间触发提醒、澄清提问或任务延续。
加微信,进群深度交流理想实际经营情况与长期基本面。不是官方群,不是车友群。

夜雨聆风