所有APP都在塞AI助手,但没几个产品做到位
最近把手机里所有带AI助手的APP都试了一遍,包括支付宝的蚂小财、蚁小保,滴滴打车助手小滴,招商银行的AI理财顾问、飞猪千问定车票等等。各赛道都在抢着把AI能力塞进自己的产品。
试完之后的感受挺微妙的,大部分AI助手你打开用一次,就不想打开第二次了。
坦率的讲,不是这些AI不够聪明。底层模型的能力虽然有差距,但回答问题的水平都已经在可用线以上了。真正拉开差距的是交互设计,就是用户打开你的AI助手之后,整个体验是怎么串起来的。
AI产品的交互设计跟传统APP完全不同。传统交互设计解决的是怎么操作,AI交互设计要解决的是怎么表达意图和怎么建立信任。行业里目前有两套被广泛引用的设计框架,一套解决前者,一套解决后者。
所以无论是产品经理还是设计师,都应该先掌握AI产品的设计特性,然后针对性的进行自己内部产品的AI升级,而不是看着大家都整小助手,就赶忙上线一个小助手,但用起来根本啥也不是。
你的AI助手能力如何,用户感受如何,下面通过五大领域+六大模式来自查下你的助手吧~
一、五大领域:AI交互的完整模块
这套框架来自Smashing Magazine 的 AI 界面设计研究,把AI交互拆分成五个功能模块,下面来简单说明一下。

1. Input UX — 表达意图
用户怎么把想法传达给AI。这是AI交互的第一步,也是最难的步骤,因为用户的意图往往是模糊的,且需求的来源本身就是把多样。
核心设计要点:提供多种表达通道,如文字输入、语音输入、拍照识别、视频对话等,让用户自己选择使用最顺手的方式。
比如豆包:语音+图片+文本多模态输入,用户可以直接拍一张图问这是什么,不用打字描述,降低了表达门槛。
2. Output UX — 展示结果
用户把想法告诉AI了,接下来就是AI怎么把结果交出来,AI生成的结果怎么呈现。不同于传统APP的固定页面,AI的输出是动态的、多维度的,是将最佳可读性的结果呈现给用户。
核心设计要点:结果展示必须可读、可比较、可评估。用户第一眼要能判断靠不靠谱。
比如在设计的时候不要长短大论的文字给到客户,一定是结构化,图文并行的给到客户,比如千问、可灵从开始大大篇报告逐渐给出结构化输出。AI回答自动拆分为大纲、要点、表格等多种形式,用户不用自己从一大段文字里提取信息。
3. Refinement UX — 微调输出
AI给的初始结果通常是80分,用户需要微调到95分。这是体验的关键分水岭。
核心设计要点:微调必须即时反馈、所见即所得。操作粒度合适,优先用预设降低决策成本。
4. AI Actions — 执行任务
AI从给建议升级为替你做。帮你看是一回事,帮你操作是另一回事,信任门槛完全不同。
核心设计要点:执行类操作必须配上确认机制,让用户随时能看到AI将要做什么。
比如AI在工作时,都会告诉你他正在干什么执行到哪一步了,让用户放心,帮你办理业务时,或者在帮你打车时,一定是将执行前的确认交给用户。
5. AI Integration — 场景融合
AI能力嵌入到用户已有的工具和工作流中,而不是让用户跳到另一个APP去用AI。
核心设计要点:AI的出现时机和位置必须自然,与已有工具的数据和操作必须打通。
比如你用千问集成了各类的能力,不用点外卖去闪购、买票去飞猪,只需要在千问你告诉他帮我下单即可,这样用户对AI助手的依赖就会增强,不会再去点击传统的入口。
以上框架讲的五个功能模块。你可以理解为,一个完整的AI助手,这五个模块的设计都得到位。少了任何一个,体验就会在那个环节断掉。
但这还不够。
你把功能模块都设计好了,用户凭什么相信你的AI?凭什么让AI替自己做事?
这就是第二套框架要解决的问题。
二、六个设计模式:让用户信任AI的六个设计开关
我自己的观察是,大部分AI助手在信任这块做得都比较粗。要么就是什么都不解释直接给你结果,要么就是一股脑把操作都做了也不提前说一声。用户用着用着就慌了,不知道AI在干什么、为什么这么干、干错了、怎么办。
做得好的AI助手是怎么处理信任的呢,主要关注六个设计模式。
六个模式的核心让用户信任AI的六个设计开关,把控制权交还给用户。AI可以执行,但用户必须能预览、能确认、能理解、能质疑、能撤回、能干预。
这套框架来自行业智能体UX模式研究,专门解决一个问题——当AI替用户做事时,怎么让用户信任它、控制它、纠正它。

1. Intent Preview — 意图预览
AI执行前先展示行动计划,用户确认后才动手。设计目标:接受率 > 85%。
比如,小滴我告诉他帮我叫一辆回家的车,他会实时展示他当前思考进度,然后跑完结果后给出我确认的地址和时间,然后在帮我匹配对应的车辆,这样用户对他的行为一目了然;
还有一些操作更类B端工具,如Claude Code 每次任务之前会先列一个清单,要澄清哪些需求,改动哪些文件、每个文件改什么内容,你确认了它才开始,完全放心的交给AI。
2. Autonomy Dial — 自主度旋钮
让用户调节AI的自主程度,渐进释放。四级模式:只给建议、计划确认、确认后执行、自主执行。
基础C端客户层面,可释放给用户可选择的模式,如基础快速和深度思考、如一个功能独立的快捷入口和分步的引导入口,便于用户自主灵活的选择;对于B端的工具,在辅助自我工作上,可以更灵活的调整AI介入的程度,更好的AI为我所用。
3. Explainable Rationale — 可解释性
一是AI做完后告诉用户为什么,展示AI思考的链路;
二是其中变量的解释,如通过上下文的解释,或者持续的告知和引导;
三是自我批判解释,需帮助用户评估其可靠性,如自我批判(如“此信号可能因某某因素而被夸大”),或提供其他角度的回答,来引导用户自主做出判断。
特别是一些基金财富保险类的助手,其严谨性和解释性要更加明确。
4. Confidence Signal — 置信度信号
AI不确定时老实告诉用户,核心原则:不确定性必须可见,不能藏在看似自信的输出背后。
当用户问到具体办理或查询的事件时,遇到不确定的问题直接说我不太确定,这个信息我无法验证,不会编造答案。
还有就是使用简单、可见的指标,如百分比或低/中/高等级,来标示结果的置信度。
对于文本内容,可以在视觉上高亮不确定的部分。
5. Action Audit & Undo — 审计与撤销
完整操作记录+ 一键撤销。设计目标:撤销率 < 5%。
支持用户查看以往的对话记录,让用户的记录有迹可循,可追溯之前的咨询信息;
6. Escalation Pathway — 升级路径
AI不确定时主动求助用户。设计目标:恢复成功率 > 90%。
三、下一步:实际落地
回到开头那个问题,大部分AI助手为什么做得不到位?因为它们要么缺模块,五个功能模块没有全覆盖,用户在某个环节卡住了就放弃了;要么缺信任,六个信任模式没有做到位,用户不敢让AI做重要的事,要么两个都缺。
拿到一个AI助手的设计需求,怎么落地呢,三步走。就像机长在起飞前会严格的自查所有系统是否准备齐全,才会起飞,必要的限制,是对产品和用户负责

第一步,拿五大领域当模块地图过一遍。你的AI助手在表达意图、展示结果、微调输出、执行任务、场景融合这五个环节,每个环节的交互形态想清楚了吗?有没有哪个环节是缺失的?
第二步,拿六大模式当信任自查清单过一遍。坦率的讲,意图预览和撤销是最低要求,几乎所有涉及AI执行的功能都应该配上。自主度和可解释性根据功能复杂度决定。置信度信号和升级路径在信息不确定的场景下必须具备。
第三步,把缺失的补上。不是每个功能都要六个模式全覆盖,但每一个被省掉的模式都应该有明确的理由,而不是没想到。
所以在设计时,传统产品,产品/设计的产出是一套界面操作流程。AI产品,产出是一套行为规则,AI在什么时机、以什么方式、展现什么信息、留给用户什么控制权。这些东西才是负责AI项目的人真正要决定的事情。
夜雨聆风