with one click
p0h-ai-product-triple-balance
// AI 产品三重平衡表。AI 产品设计需要在商业、人性、技术三个维度之间找到平衡。 这个 Skill 提供系统性的三重平衡评估框架。 基于《AI
// AI 产品三重平衡表。AI 产品设计需要在商业、人性、技术三个维度之间找到平衡。 这个 Skill 提供系统性的三重平衡评估框架。 基于《AI
[HINT] Download the complete skill directory including SKILL.md and all related files
| name | p0h-ai-product-triple-balance |
| description | AI 产品三重平衡表。AI 产品设计需要在商业、人性、技术三个维度之间找到平衡。 这个 Skill 提供系统性的三重平衡评估框架。 基于《AI |
AI 产品不是技术问题,而是商业、人性、技术三者的平衡问题。这张表帮你找到平衡点。
产品方案描述 + 已知约束条件。
示例输入:
产品: AI 面试辅助工具
功能: 自动生成面试评估报告
担心: 可能导致面试官依赖 AI 而忽视人的判断
核心问题:这个产品能不能创造商业价值?
评估项:
输出格式:
商业评估:
value_proposition: "核心价值主张"
revenue_model: "收入模型"
willingness_to_pay: "用户支付意愿"
scalability: "规模化潜力"
competitive_advantage: "竞争优势"
alignment: "与战略的一致性"
score: "1-10"
核心问题:这个产品对人有没有侵害?
评估项:
输出格式:
人性评估:
autonomy: "自主性尊重程度"
bias_risk: "偏见风险"
transparency: "透明度"
exit_option: "退出机制"
vulnerability: "弱势群体考虑"
privacy: "隐私保护"
score: "1-10"
核心问题:这个产品技术上能不能做到?
评估项:
输出格式:
技术评估:
maturity: "技术成熟度"
accuracy: "准确率/可靠性"
performance: "性能"
scalability: "可扩展性"
operational_cost: "运维成本"
fallback: "回滚机制"
score: "1-10"
商业 (Business)
/\
/ \
/ \
/ ❍ \
/ \
/__________\
人性 (Humanity) 技术 (Technology)
平衡类型判断:
平衡状态:
- 理想型: 三者都高(稀缺)
- 商业-人性型: 商业和人性好,技术不成熟(需要等待技术)
- 商业-技术型: 商业和技术好,人性有风险(需要加强人性保护)
- 人性-技术型: 人性和技术好,商业价值不明确(需要重新定义价值)
- 偏斜型: 两者低,一者高(危险,需要重新设计)
当三者冲突时:
决策框架:
商业 vs 人性:
- 如果人性风险是不可逆的(如生命安全、歧视),人性优先
- 如果人性风险是可控的,可以商业优先,但必须有保护机制
商业 vs 技术:
- 如果技术不成熟,但商业机会重大,可以先做 MVP 验证
- 如果技术成本过高,商业模式不成立,需要等待技术成熟
人性 vs 技术:
- 技术能力不应该决定人性边界,而是人性边界决定技术能用多少
triple_balance_assessment:
input:
product: "产品名称"
description: "产品描述"
constraints: ["约束条件"]
dimensions:
business:
score: "1-10"
strengths: ["优势"]
weaknesses: ["劣势"]
key_question: "最关键的商业问题"
humanity:
score: "1-10"
strengths: ["优势"]
weaknesses: ["劣势"]
key_question: "最关键的人性问题"
technology:
score: "1-10"
strengths: ["优势"]
weaknesses: ["劣势"]
key_question: "最关键的技术问题"
balance:
type: "理想型/商业-人性型/商业-技术型/人性-技术型/偏斜型"
health_score: "1-10"
critical_gap: "最大矛盾点"
recommendations:
immediate: ["立即要做的"]
short_term: ["短期要做的"]
long_term: ["长期要做的"]
if_must_choose: "如果必须做权衡,建议优先级"
red_flags:
- "严重警示1"
- "严重警示2"
| 维度 | 评估 | 分数 |
|---|---|---|
| 商业 | 可以节省 HR 时间,但企业是否愿意付费不确定 | 6 |
| 人性 | 有偏见风险,面试官可能依赖 AI 而忽视人的判断 | 4 |
| 技术 | 技术可行,但准确率不足以完全替代人的判断 | 7 |
平衡类型:商业-技术型,人性有风险
建议:
AI 产品的最终边界不是技术能力,而是人性尊严。
大多数产品讨论最终回到商业。这不庸俗,是现实——团队要生存,产品需要收入。但在 AI 时代,模型调用、上下文长度、工具编排、重试和系统防护都在持续消耗成本,商业问题比以前更早进入产品设计。
但正因为如此,AI 产品需要比"商业优先"更完整的平衡框架。
如果只看商业,团队会滑向最容易增长、转化和衡量的方向,也会推动系统走向短期刺激、过度自动化和用户依赖。产品可能盈利,但未必减轻了谁的负担,也未必塑造了值得被重复的生活方式。
只有商业层有答案时,先不要轻易下结论。
AI 产品的商业难点不同于传统软件。过去团队大多对标人力成本,今天越来越多面对持续运营成本:token 消耗、推理深度、链路编排、稳定性和防护成本都在重新定义毛利结构。
商业层核心问题:
没有可持续价值交换,再漂亮的产品理想也很难长期存活。
人性层的"好"不是抽象善意,而是非常具体的判断:
关键判断线:这个产品是在帮助用户重获判断力和现实感,还是在帮他们以更舒服的方式交出越来越多的判断?
短期上瘾、高粘性、高转化的产品,不自动等于人性层做得好。
文化层讨论最少,但可能最重要。因为产品从来不只是工具,还在持续训练用户如何理解效率、关系、责任、注意力,以及如何与系统共处。
文化层核心问题:
文化层的后果不会立刻出现在报表里,但最终决定产品是只赢一时,还是能被长期信任。
三层不可能永远和谐。真正的难点不是机械地说"三层都重要",而是团队必须能判断:
决策框架:
| 冲突 | 判断原则 |
|---|---|
| 商业 vs 人性 | 如果人性风险不可逆(生命安全、歧视),人性优先;如果可控,商业优先但必须有保护机制 |
| 商业 vs 技术 | 技术不成熟但商业机会重大,先做 MVP;技术成本过高商业模式不成立,等待技术成熟 |
| 人性 vs 技术 | 技术能力不应决定人性边界,而是人性边界决定技术能用多少 |
成熟的平衡不是每层都满分,而是团队至少知道自己在牺牲什么、为什么牺牲、这个牺牲值不值得。
输入:产品方案描述 + 已知约束条件
处理:
输出:产品方案简述(附约束和分歧标记)
输入:Step 1 产出的方案简述
处理:
输出:商业层评估报告(附分数和关键问题)
输入:Step 1 产出的方案简述
处理:
输出:人性层评估报告(附分数和关键问题)
输入:Step 1 产出的方案简述
处理:
输出:文化层评估报告(附分数和关键问题)
输入:Step 2-4 的三层评估报告
处理:
输出:三角形分析图 + 平衡类型判断 + 健康度分数
输入:Step 5 的三角形分析
处理:
输出:分阶段改进计划 + 红线清单
场景描述:一家 HR 科技公司做 AI 面试辅助工具,功能是自动生成面试评估报告。
Step 1 方案描述:
Step 2 商业层评估:
Step 3 人性层评估:
Step 4 文化层评估:
Step 5 三角形分析:
Step 6 改进计划:
结论:AI 面试工具可以做,但必须保护面试官的最终判断权。系统应该"辅助判断"而非"替代判断"。
场景描述:一家教育科技公司想做 AI 学习监督系统,自动打卡提醒、学习进度跟踪、惩罚机制、排行榜。
Step 1 方案描述:
Step 2 商业层评估:
Step 3 人性层评估:
Step 4 文化层评估:
Step 5 三角形分析:
Step 6 改进计划:
结论:学习监督可以做,但必须从"外部驱动"转向"内在能力培养"。去掉惩罚,保留节奏支持,让产品帮用户成为更能自主学习的人。