with one click
p0h-triple-balance-assessor
// AI 产品三重平衡表。当团队讨论 AI 产品方向时,最容易只看增长和效率。 这个 Skill 帮团队同时看商业、人性、文化三层。 基于《AI
// AI 产品三重平衡表。当团队讨论 AI 产品方向时,最容易只看增长和效率。 这个 Skill 帮团队同时看商业、人性、文化三层。 基于《AI
[HINT] Download the complete skill directory including SKILL.md and all related files
| name | p0h-triple-balance-assessor |
| description | AI 产品三重平衡表。当团队讨论 AI 产品方向时,最容易只看增长和效率。 这个 Skill 帮团队同时看商业、人性、文化三层。 基于《AI |
不要只看商业指标,用三层判断确保 AI 产品赢得长期信任。
一个 AI 产品方向或功能描述。
示例输入:
方向: "做一个默认全自动帮用户安排日程、催办任务、对外发确认消息的 AI 助手"
三层评估 + 综合判断 + 调整建议。
核心问题:这个能力能不能赚钱?能不能持续?
三个检查点:
这个能力的长期成本是什么?
它带来的价值能不能覆盖持续消耗?
它是不是靠高成本堆出"看起来很聪明"?
输出格式:
商业层评估:
long_term_cost: "长期成本估算"
value_coverage: "价值是否覆盖成本"
smart_illusion: "是否靠高成本堆出"
viability: "viable/marginal/not_viable"
核心问题:这个能力是不是真正帮助了人?
三个检查点:
它是否真的减轻了用户的长期负担?
它是否保留了人的主体性和判断感?
它是在帮助人生活,还是让人更依赖系统?
输出格式:
人性层评估:
burden_reduction: "是否减轻长期负担"
agency_preservation: "是否保留主体性"
dependency_type: "healthy/unhealthy/neutral"
human_flourishing: "是否促进人的成长"
核心问题:这个产品在训练什么?扩散什么?
三个检查点:
它在训练用户怎么理解效率、关系和责任?
它是在扩大人的现实感,还是在鼓励更浅的自动化依赖?
这种产品逻辑是否值得被扩散?
输出格式:
文化层评估:
value_training: "训练了什么价值观"
reality_expansion: "扩大还是缩小现实感"
worth_spreading: "是否值得扩散"
cultural_impact: "positive/neutral/negative"
triple_balance_assessment:
input:
direction: "产品方向描述"
context: "业务背景"
business_layer:
long_term_cost: "长期成本"
value_coverage: "价值覆盖"
smart_illusion: "是否高成本堆出"
viability: "viable/marginal/not_viable"
score: "1-10"
humanity_layer:
burden_reduction: "减轻负担"
agency_preservation: "保留主体性"
dependency_type: "healthy/unhealthy/neutral"
flourishing: "促进成长"
score: "1-10"
culture_layer:
value_training: "训练价值观"
reality_expansion: "扩大/缩小现实感"
worth_spreading: "值得扩散"
impact: "positive/neutral/negative"
score: "1-10"
balance_analysis:
strongest_layer: "最强的一层"
weakest_layer: "最弱的一层"
imbalance_risk: "失衡风险"
verdict:
overall_score: "1-10"
recommendation: "proceed_with_caution/adjust/stop"
key_adjustments: ["关键调整建议"]
next_steps:
if_proceed: "如果继续,需要补强的方面"
if_adjust: "具体调整方案"
if_stop: "如果停止,替代方向"
方向:
"做一个默认全自动帮用户安排日程、催办任务、对外发确认消息的 AI 助手"
三层评估:
| 层次 | 评估 | 分数 |
|---|---|---|
| 商业层 | 容易讲增长故事,能提高效率感和付费想象。但长期运行成本、错误兌底成本、对外沟通失误成本会一起上升。 | 6/10 |
| 人性层 | 可能减轻执行负担,但会吞掉很多本该由用户自己保留的判断。系统在"替代判断"而不是"帮助判断"。 | 4/10 |
| 文化层 | 如果系统越来越默认替人表达、替人确认、替人推进,最后训练出来的不是更成熟的协作,而是更舒服的判断外包。 | 3/10 |
综合判断:
下一代 AI 产品,不该只赢得指标,还要赢得长期信任。
大多数产品讨论最终回到商业。这不庸俗,是现实——团队要生存,产品需要收入。但在 AI 时代,模型调用、上下文长度、工具编排、重试和系统防护都在持续消耗成本,商业问题比以前更早进入产品设计。
但正因为如此,AI 产品需要比"商业优先"更完整的平衡框架。
如果只看商业,团队会滑向最容易增长、转化和衡量的方向,也会推动系统走向短期刺激、过度自动化和用户依赖。产品可能盈利,但未必减轻了谁的负担,也未必塑造了值得被重复的生活方式。
只有商业层有答案时,先不要轻易下结论。
AI 产品的商业难点不同于传统软件。过去团队大多对标人力成本,今天越来越多面对持续运营成本:token 消耗、推理深度、链路编排、稳定性和防护成本都在重新定义毛利结构。
商业层核心问题:
没有可持续价值交换,再漂亮的产品理想也很难长期存活。
人性层的"好"不是抽象善意,而是非常具体的判断:
关键判断线:这个产品是在帮助用户重获判断力和现实感,还是在帮他们以更舒服的方式交出越来越多的判断?
短期上瘾、高粘性、高转化的产品,不自动等于人性层做得好。
文化层讨论最少,但可能最重要。因为产品从来不只是工具,还在持续训练用户如何理解效率、关系、责任、注意力,以及如何与系统共处。
文化层核心问题:
文化层的后果不会立刻出现在报表里,但最终决定产品是只赢一时,还是能被长期信任。
三层不可能永远和谐。真正的难点不是机械地说"三层都重要",而是团队必须能判断:
决策框架:
| 冲突 | 判断原则 |
|---|---|
| 商业 vs 人性 | 如果人性风险不可逆(生命安全、歧视),人性优先;如果可控,商业优先但必须有保护机制 |
| 商业 vs 技术 | 技术不成熟但商业机会重大,先做 MVP;技术成本过高商业模式不成立,等待技术成熟 |
| 人性 vs 技术 | 技术能力不应决定人性边界,而是人性边界决定技术能用多少 |
成熟的平衡不是每层都满分,而是团队至少知道自己在牺牲什么、为什么牺牲、这个牺牲值不值得。
输入:产品方案描述 + 已知约束条件
处理:
输出:产品方案简述(附约束和分歧标记)
输入:Step 1 产出的方案简述
处理:
输出:商业层评估报告(附分数和关键问题)
输入:Step 1 产出的方案简述
处理:
输出:人性层评估报告(附分数和关键问题)
输入:Step 1 产出的方案简述
处理:
输出:文化层评估报告(附分数和关键问题)
输入:Step 2-4 的三层评估报告
处理:
输出:三角形分析图 + 平衡类型判断 + 健康度分数
输入:Step 5 的三角形分析
处理:
输出:分阶段改进计划 + 红线清单
场景描述:一家 HR 科技公司做 AI 面试辅助工具,功能是自动生成面试评估报告。
Step 1 方案描述:
Step 2 商业层评估:
Step 3 人性层评估:
Step 4 文化层评估:
Step 5 三角形分析:
Step 6 改进计划:
结论:AI 面试工具可以做,但必须保护面试官的最终判断权。系统应该"辅助判断"而非"替代判断"。
场景描述:一家教育科技公司想做 AI 学习监督系统,自动打卡提醒、学习进度跟踪、惩罚机制、排行榜。
Step 1 方案描述:
Step 2 商业层评估:
Step 3 人性层评估:
Step 4 文化层评估:
Step 5 三角形分析:
Step 6 改进计划:
结论:学习监督可以做,但必须从"外部驱动"转向"内在能力培养"。去掉惩罚,保留节奏支持,让产品帮用户成为更能自主学习的人。