with one click
ai-native-product-needs
// AI Native 产品需求发现 Skill。基于《AI rebuild product needs》方法论, 帮助用户在 AI Agent
// AI Native 产品需求发现 Skill。基于《AI rebuild product needs》方法论, 帮助用户在 AI Agent
[HINT] Download the complete skill directory including SKILL.md and all related files
| name | ai-native-product-needs |
| description | AI Native 产品需求发现 Skill。基于《AI rebuild product needs》方法论, 帮助用户在 AI Agent |
当 AI 让"做出来"变得容易时,真正稀缺的是判断"什么才值得做"的能力。本 Skill 提供一套从"真实处境"出发的需求发现流程,帮助你避开 AI 时代最容易陷入的伪需求陷阱。
用户提供了一个产品想法、问题线索或需求描述,需要:
数字世界正在把世界压扁,但真实世界始终是立体的。AI 很擅长处理被表达、被记录、被整理过的世界,但真正有价值的问题,往往长在现实里那些还没有被说清、也不容易被看见的地方。
真实需求 = 场景入口 × 处境深度 × 行为证据密度
伪需求 = 表达强度 × 技术兴奋度 × 可见性偏差
把用户/客户/团队"说出来的需求"拆成三层:
| 层级 | 问题 | 输出 |
|---|---|---|
| 表达层 | 他们说了什么? | 原始需求陈述 |
| 行为层 | 他们在什么处境中做了什么? | 行为证据清单 |
| 结构层 | 什么在阻碍他们达成目标? | 结构性约束清单 |
关键动作:
AI Native 需求管理的核心转变:从"用户是谁"到"用户在什么处境中"。
处境地图的四个维度:
输出:一幅"处境-行为"映射表,显示用户在每个处境下的真实行为(而非表达意愿)。
用 5 个信号判断一个需求是否为伪需求:
| 信号 | 检测问题 | 风险等级 |
|---|---|---|
| S1: 技术兴奋型 | "如果不用 AI,这个问题还存在吗?" | 🔴 高 |
| S2: 可见性偏差型 | "这个需求是在哪个平台/会议上被放大的?" | 🟡 中 |
| S3: 表达-行为断裂型 | "用户说的和做的是否一致?" | 🔴 高 |
| S4: 代理偏差型 | "这个需求是谁的声音?是终端用户还是中间人?" | 🟡 中 |
| S5: 解决方案伪装型 | "他们描述的是问题,还是已经混进了解决方案?" | 🔴 高 |
规则:命中 ≥2 个 🔴 信号 → 标记为"高伪需求风险",必须回到 Step 1 重新收集行为证据。
判断这个需求是否适合用 AI Agent 解决,而非传统工具或人工。
Agent 适配四问:
输出:Agent 适配评分(0-100)+ 不适合 Agent 的环节清单。
整合所有分析,输出一份标准化的 AI Native 需求简报:
needs_brief:
problem_statement: "用一句话描述真正的核心问题(不是解决方案)"
situation_map:
- situation: "处境描述"
behavior_evidence: "行为证据"
frequency: "发生频率"
pseudo_need_flags: ["S1", "S3"] # 命中的伪需求信号
agent_fit:
score: 85
suitable_for_agent: true
human_reserved_decisions: ["最终审批", "伦理判断"]
validation_criteria:
- "验证标准1:..."
- "验证标准2:..."
next_stage: "p2" # 下一阶段:方向定界
ai-native-direction-framing(方向定界)ai-native-experiment-engine(试验展开,用于验证需求假设)AI 很擅长处理被表达、被记录、被整理过的世界。但真正有价值的问题,往往长在现实里那些还没有被说清、也不容易被看见的地方。
核心公式:
真实需求 = 场景入口 × 处境深度 × 行为证据密度
伪需求 = 表达强度 × 技术兴奋度 × 可见性偏差
当 AI 让"做出来"变得容易时,真正稀缺的是判断"什么才值得做"的能力。
AI Native 需求管理的核心转变:不是先问"用户是谁"(画像),而是先问"用户在什么处境中"(场景)。
处境地图的四个维度:
| 维度 | 问题 | 示例 |
|---|---|---|
| 物理处境 | 在哪里?用什么设备?网络环境?时间压力? | 地铁上用手机、办公室用电脑 |
| 社交处境 | 和谁在一起?谁在看?有什么社会压力? | 独处时搜索、同事面前提问 |
| 任务处境 | 正在完成什么目标?这个目标是谁设定的? | 被老板要求的 vs 自己想做的 |
| 情绪处境 | 当下的情绪状态?对失败的容忍度? | 焦虑时搜索、放松时浏览 |
处境 > 画像。先理解用户在什么处境中,再谈用户是谁。
| 信号 | 检测问题 | 风险等级 |
|---|---|---|
| S1: 技术兴奋型 | "如果不用 AI,这个问题还存在吗?" | 🔴 高 |
| S2: 可见性偏差型 | "这个需求是在哪个平台/会议上被放大的?" | 🟡 中 |
| S3: 表达-行为断裂型 | "用户说的和做的是否一致?" | 🔴 高 |
| S4: 代理偏差型 | "这个需求是谁的声音?是终端用户还是中间人?" | 🟡 中 |
| S5: 解决方案伪装型 | "他们描述的是问题,还是已经混进了解决方案?" | 🔴 高 |
规则:命中 ≥2 个 🔴 信号 → 标记为"高伪需求风险",必须回到 Step 1 重新收集行为证据。
判断这个需求是否适合用 AI Agent 解决:
不是所有问题都适合用 AI 解决。Agent 适配评估是需求发现的最后一道关。
输入:用户/客户/团队表达的需求
处理:
关键动作:
输出:三层解构结果(表达层 + 行为层 + 结构层)
输入:Step 1 的行为层输出
处理:
输出:处境-行为映射表
输入:Step 1-2 的全部输出
处理:
输出:伪需求检测报告 + 风险等级 + 回溯建议(如有)
输入:已验证的需求
处理:
输出:Agent 适配评分(0-100)+ 不适合 Agent 的环节清单
输入:Step 1-4 的全部输出
处理:
输出:AI Native 需求简报(标准化格式)
场景描述:某电商平台客服团队说"我们需要 AI 自动回复客户"。
Step 1 需求解构:
Step 2 处境映射:
Step 3 伪需求检测:
Step 4 Agent 适配:
Step 5 需求简报:
needs_brief:
problem_statement: "新人客服无法快速获得资深客服的判断力,导致回复质量不稳定和培训成本高"
situation_map:
- situation: "高峰时段,新人面对复杂咨询"
behavior_evidence: "偷偷看老同事历史对话记录"
frequency: "每天"
pseudo_need_flags: ["S3", "S5"]
agent_fit:
score: 75
suitable_for_agent: true
human_reserved_decisions: ["高风险承诺回复", "投诉处理"]
validation_criteria:
- "新人首响时间是否降低 50%"
- "新人回复满意度是否达到资深客服 80% 水平"
next_stage: "p1 (方向定界)"
结论:需求成立,但问题定义需要修正——不是"自动回复",而是"新人知识辅助"。
场景描述:一个创业团队说"我们要做一个 AI 学习计划产品,帮大学生自动制定考研复习计划"。
Step 1 需求解构:
Step 2 处境映射:
Step 3 伪需求检测:
决策:必须回到 Step 1 重新收集行为证据。
重新定义后的问题:不是"制定计划",而是"考研执行过程中的实时反馈和调整"——学生真正缺的不是一份计划,而是在执行过程中有人告诉他们"你现在的进度是否正常""你的薄弱点在哪里""下一步该优先做什么"。
结论:原需求(AI 制定学习计划)是伪需求。真正的需求是"考研执行过程中的智能反馈系统"。如果团队按原需求做,会做出一个"用户生成了计划但不执行"的产品。
行为 > 表达。用户的行为证据比他们说的话更可信。