with one click
ai-native-ux-design
// AI Native 产品方法论——AI Native 用户体验设计的实操 Skill。 用户提供产品场景,Skill 自动执行 UX 设计流程: 任务分析 → 人机分工设计 → 状态可见性 → 纠偏机制 → 信任设计 → 反馈沉淀 → 输出 UX 方案。 基于《AI Native 产品方法论》第16章。
// AI Native 产品方法论——AI Native 用户体验设计的实操 Skill。 用户提供产品场景,Skill 自动执行 UX 设计流程: 任务分析 → 人机分工设计 → 状态可见性 → 纠偏机制 → 信任设计 → 反馈沉淀 → 输出 UX 方案。 基于《AI Native 产品方法论》第16章。
[HINT] Download the complete skill directory including SKILL.md and all related files
| name | ai-native-ux-design |
| version | 1.1.0 |
| description | AI Native 产品方法论——AI Native 用户体验设计的实操 Skill。 用户提供产品场景,Skill 自动执行 UX 设计流程: 任务分析 → 人机分工设计 → 状态可见性 → 纠偏机制 → 信任设计 → 反馈沉淀 → 输出 UX 方案。 基于《AI Native 产品方法论》第16章。 |
| tags | ["ai-product","methodology","ux","human-ai-collaboration","trust","book-skill"] |
| author | Max |
| source_book | AI Native 产品方法论 |
| stage | p8 |
| archived_sub_skills | ["p8a-rax-risk-assessor","p8b-trust-tier-designer","p8c-progressive-disclosure"] |
用户表达目标
→ 系统展示状态
→ 给出建议 / 行动
→ 用户纠偏或确认
→ 结果执行
→ 反馈沉淀
如果系统省略了"状态可见"和"纠偏入口",体验再流畅也很难形成长期信任。
传统软件体验主要围绕界面效率:导航是否清晰、按钮是否顺手、表单是否顺畅。
AI Native 产品新增了另一层体验:
真正被设计的不只是界面元素,而是"用户提出目标后,系统如何回应、如何推进、如何被纠偏"的全过程。
AI 产品的体验设计不应停留在"回答好看不好看",而要围绕任务完成效率来设计:
以下三个子 Skill 已归档至 .archive/,核心内容已合并入本节:
基于 RAX 框架(Risk, Ambiguity, eXposure)系统性评估 AI 产品的风险、模糊性和暴露程度,帮助产品团队识别和管理用户体验风险,找出 UX 弱点。
设计 AI 产品的信任度分级体系,让用户从"尝试"到"依赖"渐进式地建立对 AI 的信任,通过分级交付策略降低用户的心理门槛。
按照用户成熟度逐步展示 AI 功能和能力,避免一次性交付过多信息造成认知过载,降低新手期流失率。
当用户提供产品场景时,自动执行:
场景描述: 设计一个 AI 客服协同工作台的 UX,让客服专员高效使用 AI 建议,同时保持对服务的控制。
用户输入: "我们的 AI 客服建议有时不被采纳,有时被采纳后反而要修改,怎么设计更好的协作体验?"
Skill 执行流程:
用户咨询 → 客服理解 → AI生成建议 → 客服审核 → 发送/修改 → 用户反馈
↓
人机协作核心节点
| 任务节点 | AI 职责 | 人类职责 | 决策模式 |
|---|---|---|---|
| 意图理解 | 识别咨询类型、情绪 | 确认或纠正理解 | AI建议,人确认 |
| 信息查询 | 自动查询订单/物流 | 核对数据准确性 | AI自动执行 |
| 回复生成 | 生成候选回复 | 审核、编辑、选择 | AI建议,人决策 |
| 高风险承诺 | 标注风险 | 人工确认后才能发送 | 人权决 |
| 异常处理 | 建议升级 | 判断并执行升级 | 人权决 |
界面元素:
AI分析卡片:
- 意图识别结果(置信度条)
- 已查询的数据(展开的详情)
- 情绪检测(中性/着急/愤怒)
候选回复区:
- 3个备选回复(可切换)
- 每个回复的风险标记(绿/黄/红)
- 引用来源(规则第X条、订单#123)
置信度提示:
- 高置信度(>90%):绿色边框
- 中置信度(70-90%):黄色边框 + "请确认"
- 低置信度(<70%):红色边框 + "建议人工处理"
| 纠偏方式 | 交互设计 | 触发条件 |
|---|---|---|
| 快速编辑 | 行内编辑,保留原意 | 内容基本可用,需微调 |
| 重新生成 | "换个说法"按钮 | 风格不合适 |
| 降低风险 | 移除敏感表述 | 检测到高风险词 |
| 完全拒绝 | "不需要"按钮 + 原因选择 | 建议完全不相关 |
| 标记错误 | "反馈问题"按钮 | 发现AI理解错误 |
透明度设计:
来源展示:
- "基于订单 #12345 生成"
- "引用《退换货规则》第3.2条"
- "参考历史成功案例 C-8921"
不确定性展示:
- "预计送达时间:1-2天(基于物流轨迹预测)"
- "⚠️ 该情况较为少见,建议优先解释政策"
边界提示:
- "退款涉及金额 > 500元,需主管确认"
- "此建议不适用VIP客户,已自动切换模板"
即时反馈:
客服采纳建议后:
- 快捷评价:👍 / 👎
- 修改追踪:记录人工编辑与原建议的差异
- 标签选择:准确/冗余/风格差/信息错误
定期沉淀:
- 每周生成"最佳建议"和"待改进建议"报告
- 高采纳率建议 → 案例库
- 频繁修改场景 → 模型优化需求
输出结果:
# UX 方案:AI 客服 Copilot
人机分工:
AI自动执行: [信息查询, 初步意图识别]
AI建议人决策: [回复生成, 解决方案推荐]
人权决: [高风险承诺, 投诉处理, 升级判断]
状态可见:
- AI分析结果实时展示(意图+置信度)
- 数据来源明确标注
- 风险等级颜色编码
纠偏入口:
- 快捷编辑(行内)
- 重新生成(一键)
- 完全拒绝+反馈
- 风险降级(自动移除敏感词)
信任建立:
- 所有建议标注来源
- 高不确定性场景主动提示
- 边界场景明确告知限制
反馈闭环:
- 采纳行为自动记录
- 修改内容追踪差异
- 定期质量报告生成
- 正向案例入库
渐进自动化路径:
阶段1: 所有建议人工审核(当前)
阶段2: 高置信度+低风险建议自动发送(达成90%准确率后)
阶段3: 仅异常/边界场景人工介入(长期目标)
场景描述: 设计一个面向业务分析师的 AI 数据分析助手。新手用户容易被复杂功能吓退,而高级用户又希望一步到位获取深度分析。需要设计渐进式披露路径,让不同成熟度的用户都能高效使用。
用户输入: "我们的 AI 分析助手功能很多,但新用户打开就不知道从哪开始,老用户又觉得每次都要点好几层才能用高级功能。怎么设计体验才能两头兼顾?"
Skill 执行流程:
用户打开助手 → 表达分析目标 → AI 理解意图 → 生成初始分析
→ 用户查看结果 → 追加需求 / 深入探索 → AI 扩展分析
→ 用户导出 / 分享 → 反馈沉淀
| 任务节点 | AI 职责 | 人类职责 | 决策模式 |
|---|---|---|---|
| 目标理解 | 解析自然语言、推荐分析模板 | 确认或修正分析方向 | AI建议,人确认 |
| 数据选取 | 推荐相关数据集和字段 | 选择数据范围和维度 | AI建议,人决策 |
| 分析执行 | 自动计算、生成图表 | 审核分析逻辑和结论 | AI自动,人审核 |
| 深度探索 | 推荐下钻维度和关联分析 | 决定是否深入、往哪深入 | AI建议,人决策 |
| 结论输出 | 生成摘要和行动建议 | 审核并放行最终结论 | AI建议,人权决 |
用户成熟度分级:
Level 1 - 新手引导态:
界面: 简洁输入框 + 3个推荐问题模板
功能暴露: 基础问答式分析、单图表输出
引导方式: "试试问我:上个月销售额怎么样?"
隐藏内容: 多维分析、SQL编辑、自定义指标
Level 2 - 进阶探索态(使用5次后解锁):
界面: 输入框 + 快捷操作栏(对比/趋势/分布)
功能暴露: 多图表对比、时间范围选择、维度切换
引导方式: "你可以试试把两个指标放在一起对比"
隐藏内容: 自定义SQL、API接入
Level 3 - 专家模式(使用20次后解锁):
界面: 完整工作台(输入+SQL编辑器+可视化面板)
功能暴露: 全部功能、SQL编辑、自定义仪表盘
引导方式: 功能菜单全部展开,提供高级快捷键
解锁提示: "你已解锁专家模式,所有高级功能已开放"
界面元素:
分析过程展示:
- 步骤条: "理解目标 → 查询数据 → 生成分析"(实时高亮当前步骤)
- 数据加载: 已扫描 12,340 条记录
- 分析进度: "正在计算环比变化..."
结果展示:
- 图表 + 一句话结论 + 置信度标签
- 数据来源标注: "数据截至 2026-05-01"
- 局限性提示: "该分析未包含退货数据"
| 纠偏方式 | 交互设计 | 触发条件 |
|---|---|---|
| 修改分析方向 | "换个角度:按区域/按产品线" 快捷切换 | 分析维度不对 |
| 补充约束 | "加上筛选条件" 浮层 | 结果范围太大 |
| 重新生成 | "再算一次" 按钮 | 数据或逻辑有误 |
| 回退到上一步 | 步骤条点击回退 | 中间步骤需调整 |
透明度设计:
来源展示:
- "基于 sales_db.orders 表,共 12,340 条记录"
- "计算方式:SUM(amount) GROUP BY month"
不确定性展示:
- "⚠️ 12月数据存在 3% 缺失,趋势可能偏低"
- "该结论基于历史6个月数据,置信度:中"
边界提示:
- "当前分析范围为华东区,其他区域数据未包含"
输出结果:
# UX 方案:AI 数据分析助手——渐进式披露
人机分工:
AI自动执行: [数据查询, 基础计算, 图表生成]
AI建议人决策: [分析维度选择, 下钻方向, 对比方式]
人权决: [结论放行, 对外分享, 行动决策]
渐进式披露:
Level 1 (新手): 输入框+模板 → 单图+结论
Level 2 (进阶): 快捷操作栏 → 多图对比+维度切换
Level 3 (专家): 完整工作台 → 全功能+SQL+自定义
状态可见:
- 分析步骤条实时展示进度
- 数据量和来源始终可见
- 置信度和局限性主动标注
纠偏入口:
- 快捷切换分析角度
- 筛选条件浮层
- 步骤回退
- 重新生成
信任建立:
- 数据来源和计算方式透明
- 数据缺失和局限性主动提示
- 分析范围边界明确告知
反馈闭环:
- "这个分析有用吗" 一键评价
- 追踪用户在哪个披露层级卡住
- 功能使用频率 → 自动调整披露策略
渐进自动化路径:
阶段1: 所有分析由用户触发(当前)
阶段2: 常规周报自动生成,用户审核放行
阶段3: 异常指标自动预警+根因分析推送
场景描述: 设计一个企业内部知识库的 AI 搜索与问答系统。员工用它查制度、找流程、查技术文档。AI 回答有时引用了过时文档,有时对不确定的问题也给出肯定回答,导致用户信任度下降。需要设计信任度分级体系,让不同置信度的回答有不同的展示方式和交互行为。
用户输入: "我们的 AI 知识库搜索经常给出很自信的回答,但引用的文档有时过时了,员工开始不信它了。怎么设计才能让用户知道哪些回答可以放心用、哪些要自己再确认?"
Skill 执行流程:
员工提问 → AI 理解问题 → 检索知识库 → 评估答案可靠性
→ 按信任等级展示回答 → 用户判断是否采信
→ 用户验证/采纳/标记 → 反馈沉淀
| 任务节点 | AI 职责 | 人类职责 | 决策模式 |
|---|---|---|---|
| 问题理解 | 解析问题意图、识别领域 | 确认或补充上下文 | AI建议,人确认 |
| 知识检索 | 检索相关文档、排序相关性 | 判断是否找到正确文档 | AI自动,人审核 |
| 答案生成 | 生成回答、标注引用来源 | 评估答案可信度 | AI建议,人判断 |
| 信任分级 | 计算置信度、分配信任等级 | 根据等级决定是否采信 | AI自动,人权决 |
| 过时检测 | 标记文档时效性 | 确认是否需要更新 | AI提示,人权决 |
信任度等级体系:
🟢 L1 - 高信任(置信度 ≥ 90%):
条件: 引用3+篇一致文档 + 文档更新于90天内
展示: 绿色卡片 + "高置信回答" 标签
交互: 可直接采纳,一键复制或分享
示例: "根据《2026年差旅报销制度》第4.2条,国内出差住宿标准为..."
🟡 L2 - 中信任(置信度 60-89%):
条件: 引用1-2篇文档 或 文档较旧(90-180天)
展示: 黄色卡片 + "建议验证" 标签
交互: 展示引用来源列表,鼓励用户点击查看原文
示例: "根据《报销制度(2024版)》,住宿标准可能为... ⚠️ 该文档已超过6个月未更新"
🔴 L3 - 低信任(置信度 < 60%):
条件: 文档之间存在矛盾 或 无直接匹配文档
展示: 红色卡片 + "需要人工确认" 标签
交互: 不直接给结论,展示相关片段让用户自行判断
示例: "找到3篇相关文档,但内容存在差异:[文档A] 说... [文档B] 说... 建议联系行政部门确认"
⚪ L4 - 无法回答:
条件: 知识库中无相关内容
展示: 灰色提示 + "未找到相关知识"
交互: 提供转人工入口 + "我要提问"(提交给知识管理团队)
示例: "知识库中暂无关于海外签证办理的文档,已为您转接行政助理"
界面元素:
搜索过程展示:
- "正在检索知识库... 已扫描 2,847 篇文档"
- "找到 12 篇相关文档,正在评估答案可靠性"
- 匹配文档列表(可展开查看)
答案卡片:
- 信任等级标签(颜色编码)
- 引用来源列表(文档名+更新日期+相关度)
- 时效性标记: "✅ 最新" / "⚠️ 3个月前更新" / "🔴 超过6个月"
- 一致性标记: "✅ 多篇文档一致" / "⚠️ 文档间存在差异"
文档溯源:
- 点击引用 → 高亮原文对应段落
- 展示文档最后更新时间和维护人
| 纠偏方式 | 交互设计 | 触发条件 |
|---|---|---|
| 查看原文 | "查看出处" 按钮,跳转文档高亮段落 | 用户想验证答案 |
| 补充提问 | "换个方式问" 输入框 | 回答不够精确 |
| 标记错误 | "这个回答有误" 按钮 + 原因选择 | 发现答案不正确 |
| 报告过时 | "文档可能过时" 按钮 | 引用的文档已过期 |
| 请求人工 | "转人工咨询" 按钮 | 低信任回答或复杂问题 |
透明度设计:
来源展示:
- 每条回答必须标注引用文档
- 展示文档最后更新日期和维护责任人
- 多来源时展示一致性/矛盾性
不确定性展示:
- 置信度可视化(颜色+文字双重编码)
- "该回答基于2024年制度,2025年可能已更新"
- "不同文档对此问题的表述不完全一致"
边界提示:
- "本系统覆盖行政、HR、IT制度类文档"
- "涉及法律合规类问题建议咨询法务部"
- "该文档仅适用于中国区,海外政策请咨询当地HR"
输出结果:
# UX 方案:企业知识库 AI 搜索——信任度分级
人机分工:
AI自动执行: [文档检索, 相关性排序, 置信度计算]
AI建议人判断: [答案采信, 文档时效性判断]
人权决: [制度解读, 流程确认, 跨部门问题]
信任度分级:
L1 高信任(≥90%): 绿色卡片 + 可直接采纳
L2 中信任(60-89%): 黄色卡片 + 建议验证原文
L3 低信任(<60%): 红色卡片 + 展示多源让用户判断
L4 无法回答: 灰色提示 + 转人工入口
状态可见:
- 搜索进度和文档扫描数量实时展示
- 引用来源含文档名+更新日期+一致性标记
- 时效性和矛盾性双重标记
纠偏入口:
- 查看原文(高亮定位)
- 标记错误 / 报告过时
- 补充提问 / 转人工
信任建立:
- 所有回答必须标注来源文档
- 置信度颜色+文字双重编码
- 文档时效性主动标注
- 矛盾信息不强行给结论
反馈闭环:
- "回答有误" / "文档过时" 按钮收集
- 高频错误问答 → 知识管理团队待办
- 过时文档 → 自动触发更新提醒
- 低信任比例趋势 → 检索模型优化信号
渐进自动化路径:
阶段1: 所有回答按信任等级展示,用户自行判断(当前)
阶段2: L1回答自动标记为"已验证",减少用户重复验证
阶段3: L1回答直接作为官方参考答案,L2/L3仍需审核