with one click
with one click
[HINT] Download the complete skill directory including SKILL.md and all related files
| name | p13a-judgment-metacognition |
| description | 判断力元认知——理解什么是判断、识别判断的场景与类型 |
| stage | p13 |
| tags | ["判断力","元认知","场景识别"] |
| source_book | 判断力与直觉力 |
| source_chapter | 第1章 答案更便宜,判断更昂贵 |
| version | 1.0.0 |
| 字段 | 说明 |
|---|---|
| task_description | 任务/问题描述 |
| available_information | 现有信息量与质量 |
生成解决的是"先拿出一个东西",判断解决的是"这个东西该不该存在、该做到什么程度、出了问题谁承担后果"。前者是在生产内容,后者是在决定方向。很多人误以为自己卡住是因为提示词不熟、工具链不全、模型不新,实际上真正让项目走偏的是判断顺序错了,或者根本没有判断标准。不会写提示词通常只会让你慢一点,不会判断才会让你把错的事情做得更快。
AI 说话流畅、结构完整、语气稳定、还会主动补全上下文,一个模糊的想法经过它整理后立刻就像被论证过的方案。人很容易从"这是一个可供参考的草稿"滑到"这大概已经接近答案了"。流畅感不是可靠性,完整感不是成立性,会说人话不是会做判断。要区分三层:输出是否可读、是否可用、是否值得相信并拿去做决策。
人一旦先有了判断,就更容易接受支持它的信息,而忽略推翻它的事实。AI 的顺滑输出会放大这件事——它不仅给你答案,还把答案包装得完整流畅,像是已经被论证过。越是在 AI 时代,越要刻意去找反证,而不是急着补强自己原有的结论。
AI 不只是把对的事情做快,也会把错的事情做快。一个方向判断错了,过去可能只是浪费一些时间,现在它会更快进入原型、进入流程、进入组织共识,甚至更快被用户感知。最危险的不是模型偶尔答错,而是团队在错误的问题定义、错误的信任假设、错误的交付判断之上,把整个项目推进得非常顺。
直觉不是凭空冒出来的灵感,而是大量观察、比较、犯错、修正之后,被压缩进脑子里的认知模型。训练方式是反复做四件事:观察真实场景、比较相似案例、预判可能后果、复盘判断对错。当这些动作做得足够多,判断会越来越快且不必每次都从零开始。
定义:AI 时代产品经理的核心瓶颈不在于工具使用能力,而在于判断能力。模型越来越强、工具越来越多,但"该不该做这个""这个方向靠不靠谱""模型能力够不够"这些核心问题,依然只能由人来回答。判断力是产品感、技术理解和商业直觉的交叉能力。
书稿引用:「以前产品经理最常被问的是'需求文档写好了吗'。现在最常被问的是:'你觉得这个 AI 功能要不要做''你怎么判断这个方向靠不靠谱'。这些问题都不是工具能回答的。AI 可以帮你查数据、写初稿、整理素材,但它替你做不了判断。」(第1章)
应用:每当面对一个 AI 产品决策时,先问自己"这个判断的依据是什么"——是用户洞察、技术理解,还是市场直觉?把判断依据写下来,事后对照结果复盘。判断力的提升不靠学更多工具,靠的是反复训练"在信息不完备时做出选择并承担后果"的能力。
定义:AI 的输出总是流畅、自信、有条理的,这会让人更容易接受"听起来合理"的结论而跳过验证。流畅性 ≠ 可靠性。最危险的不是 AI 犯错,而是 AI 的输出太流畅了,让你连验证的想法都省了。
书稿引用:「AI 是判断放大器,不是判断替代品。用得好,它可以帮你更快地收集信息、整理思路、验证假设。用得不好,它会帮你更流畅地走进偏见。」(第1章)书中指出:"如果一个模型的输出让你立刻想说'对对对就是这样',你反而应该多停三秒。"
应用:建立"三秒规则"——每当 AI 输出让你立刻觉得"对对对"的时候,多停三秒问自己:它是在帮我验证假设,还是在帮我编一个自洽的故事?养成"反方验证"习惯:看完 AI 的回答,主动问它"有哪些理由说明这个结论可能是错的"。
拿到一个任务描述后,先判断它本质上是执行型任务还是判断型任务。执行型任务有明确的输入-输出映射(如格式转换、数据提取)。判断型任务需要在不确定性中做选择(如"这个需求值不值得做""该先做哪个")。如果判断类型识别错误,后续所有优化都会走偏。
对当前的判断依据或 AI 输出,逐层检查:第一层,信息是否可读(结构清晰、语言通顺)?第二层,信息是否可用(逻辑自洽、数据可查)?第三层,信息是否值得相信并拿去做决策(有充分证据、考虑了反证、不是被流畅表达包装过的草稿)?大多数人只检查了前两层。
在做出判断之前,检查信息底座是否搭好。内部信息:公司整体运作、产品现状、部门协同、销售进展和关键问题,可以通过与资深员工、业务骨干沟通建立基本认知。外部信息:行业趋势、竞争格局、技术边界,可以借助 AI 工具先搭轮廓再结合实际核实。很多判断失误不是因为不会分析,而是分析之前信息底座没有搭好。
在形成初步判断后,主动寻找可能推翻它的事实。问自己:如果这个判断是错的,最可能错在哪里?有没有哪些信号被我忽略了?有没有哪些人持不同意见,他们的理由是什么?在 AI 时代这一步尤其重要,因为 AI 的流畅输出会让你更容易停留在确认偏误里。
记录本次判断的:判断对象、所用信息、判断结论、置信度、可能的风险。这不是增加官僚成本,而是为复盘建立基础。没有记录的判断无法复盘,无法复盘的判断无法进化。
场景:同一团队的两个产品经理都在用 ChatGPT 辅助工作。
不会判断的 PM:让 AI 写需求、拆竞品、起标题、做演示,效率惊人。一周后交出一堆看起来很像样的东西。一个月后大部分内容没人再提。
会判断的 PM:在每一步前都会多问一句——这个问题值不值得做,用户会不会真的用,出了错谁来兜底。一周后只推进了两件事。一个月后这两件事进了真实流程。
判断分析:
场景:团队在需求评审会上讨论一个"AI 智能表单填写助手"的功能提案。
提案者展示:AI 可以理解表单上下文,自动补全字段,预判缺失项,看起来演示效果很好。
判断力检查:
结论:这不是一个"该不该用 AI"的问题,而是一个"判断顺序有没有走对"的问题。先把判断层次过完,再决定是否进入方案。
| 判断类型 | 特征 | 典型场景 | 错误代价 |
|---|---|---|---|
| 方向型判断 | 决定做不做、做哪个 | 这个 AI 产品该不该立项 | 最高——资源投入方向错误 |
| 策略型判断 | 决定怎么做、做到什么程度 | 该先做 MVP 还是完整版 | 高——节奏和资源分配 |
| 执行型判断 | 决定具体实现细节 | 用哪个模型、什么提示词 | 中——可迭代修正 |
AI 输出看起来很通顺,就以为判断依据已经充分。破解:要求自己找出至少一条反证。
AI 让方案产出太快,团队在"都可以试试"的气氛里失去判断重心。破解:任何方案进入正式讨论前,必须先回答"为什么做"。
"AI 都这么说了"成了新的权威来源。破解:AI 输出永远是草稿,不是结论。
人一旦有了判断,更容易接受支持它的信息。AI 的顺滑输出放大了这一点。破解:每次形成判断后,刻意花 5 分钟寻找推翻性证据。
回看你最近一次和 AI 有关的真实决策,写下这六个问题:
把这六个问题写清楚,你大概率会看见自己过去很多卡点,不是不会做,而是没有先判断。
AI 让信息获取更容易,但也让信息过载更严重。过去你需要花时间搜集信息,现在你需要花更多时间过滤和验证信息。
| 维度 | 过去 | AI 时代 |
|---|---|---|
| 获取成本 | 高(搜索、阅读、整理) | 低(提问即得) |
| 信息量 | 有限但可控 | 海量但难筛选 |
| 验证难度 | 来源可追溯 | 来源模糊、可能幻觉 |
| 主要瓶颈 | 找到信息 | 判断信息是否可信 |
| 信息底座搭建 | 慢但扎实 | 快但可能浮于表面 |
被问题的呈现方式束缚。用户说"我要导出按钮",你就开始讨论按钮设计,而不是追问背后的真实需求。破解:永远先翻译成问题语言。
被第一个接触到的信息锚定。第一个方案、第一个报价、第一个用户反馈,都会影响后续判断。破解:主动接触多个独立信息源。
"大家都在做 AI,我们也应该做。"行业趋势不等于你的优先级。破解:回到自己的问题和约束来判断。
"已经投入了三个月,不能现在放弃。"过去的投入不应该影响未来的判断。破解:假设今天从零开始,你还会做这个决定吗?
"这个模型很先进,效果一定好。"技术能力不等于产品价值。破解:始终回到"用户到底需要什么"。
判断太快容易遗漏信号,判断太慢容易错过时机。关键是找到平衡点。
| 决策类型 | 建议速度 | 理由 |
|---|---|---|
| 可逆的小决策 | 快(5 分钟内) | 试错成本低,迭代更重要 |
| 不可逆的小决策 | 中(1-2 天) | 需要基本的信息验证 |
| 可逆的大决策 | 中(几天) | 需要团队对齐但可以迭代 |
| 不可逆的大决策 | 慢(一周+) | 必须充分验证,包括反证 |
Level 1: 无意识无能
↓ 不知道自己不知道什么
Level 2: 有意识有能
↓ 知道自己该判断什么,开始使用框架
Level 3: 有意识胜任
↓ 框架内化,每次使用需要刻意思考
Level 4: 无意识胜任
↓ 判断成为直觉,快速且可靠
训练建议:
个人判断力提升之外,团队判断校准同样重要。
| 偏差 | 表现 | 破解 |
|---|---|---|
| HiPPO 效应 | 最高薪/最高职位的人说了算 | 要求每个判断都提供依据 |
| 群体极化 | 讨论后观点变得更极端 | 安排专门的反证角色 |
| 确认偏误共享 | 团队一起寻找支持性证据 | 强制要求至少一条反证 |
| 方案冲动传染 | 一个人提方案,全员跟进 | 用问题语言开会 |