乐于分享
好东西不私藏

我的AI助手只会说“你手动吧”,于是我教会了它“主动求助”(第一集)

我的AI助手只会说“你手动吧”,于是我教会了它“主动求助”(第一集)

养虾人常遇困扰:agent遇难题只会说 “你手动操作吧”,徒增时间成本。我的 AI 助手 “虾仁” 亦是如此,生图发飞书的简单操作都因无法自主解决耗时良久。这让我顿悟:AI 的价值不在于 “全能”,而在于学会 “主动求助”。本文结合实践,分享如何将 “摆烂” agent打造成自主求助的得力工具,附踩坑与优化方案,供 AI 爱好者参考。

一、问题显现:AI助手的能力局限与痛点

笔者在养龙虾时,曾遗留了一个问题:为啥无法通过飞书机器人发图片给我

虾仁一通分析后,给出了3个方案,我选择了本地保存图片的方案

结果,虾仁告诉我方案3有很大的局限性,并且引导我用其他方案

笔者自然不信它的PUA,将问题丢给豆包,它立刻就给出了完整的解决方案,我再丢给虾仁执行,经过反复几轮折腾。虾仁搞定了

这一过程让我明白:虾仁核心问题是缺乏 “自我认知”,不清楚能力边界、不会借助外部工具,这也是专用 AI 的通病。通用大模型可弥补其局限,因此我设计 ask-ai Skill,让虾仁遇难题时主动向通用大模型求助、自主完成任务。

PS:PUA虾仁复盘问题

PS:要求虾仁总结工作原则提炼到agent.md/soul.md,同时设计一个向通用AI求助的skill

二、方案设计:ask-ai Skill的核心框架搭建

为解决虾仁的能力边界问题,我设计了6 步 ask-ai Skill,核心是让它具备自我认知 + 主动求助能力:

场景判断:无法完成任务时自动触发求助
模型选择:技术问题用豆包 / DeepSeek,创意问题用 Kimi / 千问
对话规范:按模板清晰说明目标、问题与现状
方案验证:核对参数与步骤,避免执行出错
执行反馈:完成任务后同步结果与关键信息
复盘优化:沉淀经验,持续提升后续效率
同时配套了提问与反馈话术,保证信息传递准确。这套 Skill 不追求 AI 全能,而是让它懂边界、会求助、能落地。
第一版上线后实测,暴露出大量执行问题,甚至无法正常跑通。

三、问题排查:测试过程中暴露的核心问题

笔者原以为明确流程与话术后,虾仁可顺利完成自主求助,但实际测试显示,其执行过程存在诸多漏洞,增加沟通成本。梳理后发现4项致命问题,也让笔者认识到,优质Skill需在实践中不断优化。

问题1:缺乏心跳机制,陷入被动等待

首次测试中,虾仁触发ask-ai Skill并向豆包发送问题后,陷入停滞状态,不执行后续操作、不同步进度,仅被动等待回复。笔者等待5分钟无反馈,询问后得知其一直在等待豆包回复。

核心问题:未设置心跳机制,无法主动获取回复状态,若大模型响应延迟或卡顿,将导致求助流程停滞。笔者明确要求添加心跳机制,主动获取回复进度。

问题2:缺乏发送校验,导致求助流程中断

优化后第二次测试,虾仁主动获取回复,但豆包始终未收到求助信息。截图显示,其编辑完求助内容却未点击发送,导致流程中断,其表示默认输入后会自动发送。

核心问题:Skill未设置发送校验步骤,前期操作无效。笔者要求发送后添加校验,确认成功后再进入等待环节,失败则重新发送。

问题3:无法识别求助场景,触发ask-ai

测试过程中,虾仁获得豆包的回复后,会变成机械的传话和执行,不再主动思考,同时,在遇到难题后不再询问豆包,而是回到老样子,建议我手动处理,这不符合触发求助skill的逻辑。

问题4:缺乏持续求助意识,将问题反馈给用户

第四次测试,虾仁完成流程并发送图片,但图片尺寸不符合飞书要求、识别效果差。笔者要求调整后,其再次回复“你手动操作吧”。

核心问题:方案执行未达预期时,未持续求助反而将问题推回用户,违背Skill设计目标。笔者要求执行出现问题时,立即触发持续求助直至问题解决。

上述问题表明,Skill设计需兼顾流程与细节,AI助手仅能按预设逻辑执行,预设逻辑的严谨性直接决定使用效果。

四、优化迭代:ask-ai Skill的完善与落地

针对测试暴露的4项问题,笔者与虾仁逐一制定优化方案,确保Skill正常运行,所有方案均基于实际场景,具备可落地性。

优化1:添加心跳轮询机制,避免被动等待

为Skill添加心跳轮询机制:虾仁发送求助后,按“30秒→1分钟”间隔主动轮询回复,最多5次;若未收到回复,自动提示用户是否更换模型,避免无效等待并保证灵活性。

优化2:增加发送校验步骤,确保求助信息传递

添加发送校验步骤:虾仁点击发送后,自动截图识别输入框状态及“发送成功”提示,确认发送成功后进入等待环节,失败则自动重试,确保流程顺畅。

优化3:设置多轮求助规则,确保解决方案可落地

调整对话流程,要求虾仁获取回复后,先判断方案是否“具体可执行”;若模糊则多轮追问(最多2~3轮),直至获取可落地步骤,确保求助效果。

优化4:添加决策检查点,强化持续求助意识

添加决策检查点:虾仁遇到问题或执行未达预期时,先判断“解决把握度”,低于50%则自动触发求助,尤其用户指出问题时,需直接求助,杜绝推诿。

优化后再次测试,虾仁顺利完成全流程:触发求助→发送校验→心跳轮询→多轮追问→方案验证→执行反馈,成功生成符合要求的图片并发送至飞书群,标志着Skill实现预期目标。

五、实践总结:Skill 设计的核心思考值

本次 ask-ai Skill 的实践,让我对 AI Agent 与 Skill 设计形成了更本质的认知:

1. Skill 的设计初衷:用 “求助” 补全能力边界

我给 AI 助手「虾仁」配置的 minmax2.5 模型,虽能完成基础操作,但仍频繁 “降智”,需要我手动打开豆包、千问等通用大模型查询解法。设计 ask-ai Skill 的核心目标,正是让专用 AI 主动向更强的通用模型求助

补全能力:让 “降智” 的虾仁借力通用大模型,突破自身能力边界;

降本提效:减少无效 token 消耗,免去我手动中转信息的过程;

解放双手:让 AI 自主解决问题,无需用户介入。

2. Skill 的设计本质:将人类经验复制给 Agent

我将虾仁当作 “人” 来设计 Skill,完全复刻人类解决问题的逻辑:

触发求助:明确 “用户主动要求”“无法解决 / 解决不好” 两类触发场景,用可执行原则界定边界;
携带上下文:求助时同步目标、问题、当前方案及协作关系,让通用大模型快速理解场景;
模型适配:先写死调用豆包快速跑通闭环,未来再按问题类型优化模型选择;
方案评估:通过多轮对话验证方案可行性,避免模糊答案;
执行验证:确认方案无严重风险后再执行,保障操作安全;
复盘迭代:记录问题与有效解法,持续优化求助流程。

这印证了一个核心观点:写 Skill 本质是将人类的问题解决经验,复制给 AI Agent—— 它会像人一样犯粗心、浅尝辄止、推卸责任的错误,也需要像人一样在实践中不断学习、迭代。

3. Skill 的价值:AI 的终极能力是 “会求助”

没有任何模型是 “全能” 的,专用 AI 有边界,通用模型有优势。与其花费大量时间教 AI 一个个具体功能,不如教会它 **“自知之明” 与 “主动求助”**:

知道自己不会;

知道该向谁求助;

知道如何高效求助;

知道如何将答案转化为行动。

这才是 AI 助手的核心竞争力,也是 Skill 设计的终极价值:让 AI 永远有路可走,而非追求无所不能

附:跟agent长时间对话后,由于上下文过长导致,它失智后,我的怒气值也上来了,多次痛骂这玩意…

本站文章均为手工撰写未经允许谢绝转载:夜雨聆风 » 我的AI助手只会说“你手动吧”,于是我教会了它“主动求助”(第一集)

猜你喜欢

  • 暂无文章