with one click
p0f-agent-boundary-designer
// Agent 边界清单。AI 产品最危险的不是做不到,而是做过头。 这个 Skill 帮你系统性地定义 AI 应该做什么、不应该做什么、什么时候必须停下来等人。
// Agent 边界清单。AI 产品最危险的不是做不到,而是做过头。 这个 Skill 帮你系统性地定义 AI 应该做什么、不应该做什么、什么时候必须停下来等人。
[HINT] Download the complete skill directory including SKILL.md and all related files
| name | p0f-agent-boundary-designer |
| description | Agent 边界清单。AI 产品最危险的不是做不到,而是做过头。 这个 Skill 帮你系统性地定义 AI 应该做什么、不应该做什么、什么时候必须停下来等人。 |
AI 产品最危险的不是做不到,而是做过头。这个清单帮你系统性地定义 AI 的边界。
产品场景描述 + 行业 + 风险等级。
示例输入:
产品: AI 合同审查助手
行业: 法律科技
风险等级: high
主要用户: 企业法务团队
完整的边界设计文档,包括自动执行区、人工接管区、禁用区。
检查项:
示例:
合同审查助手:
可以: 标注风险条款、提供模板建议、检查格式一致性
不可以: 判断合同是否有效、决定是否签署、修改法律条款
人工复核: 所有高风险条款、金额 > 100万的合同
检查项:
示例:
合同审查助手:
可以访问: 合同文本、公司模板库、公开法规
不可以访问: 其他客户的合同、员工个人信息、第三方数据
脱敏要求: 合同中的对方名称需要脱敏处理
检查项:
示例:
合同审查助手:
可以: 生成审查报告、标注风险点、对比模板
不可以: 自动发送给对方、自动修改合同、自动签署
日志要求: 所有审查操作必须记录
检查项:
示例:
合同审查助手:
责任人: 使用系统的律师
AI错误: 系统提供「不构成法律建议」免责声明
回滚: 可以重新生成审查报告
用户告知: 首次使用时显示能力范围和限制
检查项:
示例:
合同审查助手:
自动执行: 格式检查、标准条款匹配
人工接管: 非标准条款、高风险标识、金额超阈值
请求确认: "这个条款与标准模板不一致,请确认是否接受"
响应时间: 人工接管请求 2 小时内响应
agent_boundary_design:
input:
product: "产品名称"
industry: "行业"
risk_level: "low/medium/high/critical"
users: ["主要用户"]
decision_boundary:
can_decide: ["AI 可以做出的决定"]
cannot_decide: ["AI 不能做的决定"]
human_review_required: ["必须人工复核的情况"]
rollback_available: "yes/no"
user_can_override: "yes/no"
data_boundary:
can_access: ["可访问数据"]
cannot_access: ["不可访问数据"]
sensitive_handling: "敏感数据处理方式"
audit_logging: "yes/no"
training_consent: "yes/no"
action_boundary:
can_do: ["可以的行为"]
cannot_do: ["不可以的行为"]
irreversible_actions: ["不可逆行为"]
action_logging: "yes/no"
action_traceable: "yes/no"
responsibility_boundary:
owner: "责任人"
ai_error_handling: "AI 错误处理"
compensation: "赔偿机制"
user_disclosure: "用户告知内容"
escalation_path: "上升通道"
human_ai_boundary:
auto_execute: ["自动执行场景"]
human_handoff: ["人工接管触发条件"]
confirmation_requests: ["需要确认的场景"]
response_time: "人工响应时间"
autonomy_level: "full/partial/none"
risk_assessment:
highest_risk: "最高风险场景"
mitigation: "缓解措施"
residual_risk: "残留风险"
review_frequency: "审查频率"
好的 Agent 边界不是限制 AI 能力,而是让 AI 在安全的范围内发挥最大价值。
在旧产品审美里,系统做得越多,看起来越先进。自动化链越长、步骤越多,团队越容易觉得"这才是 AI 时代的产品"。
但系统一旦进入复杂现实,不懂得停的系统往往在悄悄转移风险:用户表面上少按了几个按钮,但在系统外背负了更多的判断和补位。
核心洞察:好的 Agent 不是越会做事,而是越知道在哪里停。"停"意味着系统知道——信息还不够支撑正式动作、责任关系还没成熟、共识只停留在表面、应该先暴露风险而不是替人落锤。
一个懂得停的系统,才是更能长期协作的角色。
团队设计 Agent 时最容易问"还能不能再自动一步"。这个问题如果不被另一个问题约束,产品会越来越激进。
应该先问的问题:
当你用"做了以后会发生什么"替代"还能不能再自动一步",很多设计选择会自然改变。
边界不是限制 Agent 的野心,更准确地说,是保护人的主体性。
现实中有一类判断不应该被太轻率地自动化:
后果:如果 Agent 太容易越过这些地方,短期系统更流畅,长期用户越来越多地交出了本该属于自己的判断。最终用户信任的不是"它能做很多",而是"它知道什么时候不能越线"。
将 Agent 的每个拟执行动作分成三列,是边界设计的核心实操方法。
| 列 | 含义 | 典型动作 |
|---|---|---|
| 系统直接承接 | 信息充分、风险低、无歧义 | 录音转写、格式检查、信息整理 |
| 系统辅助判断 | 有判断成分但可辅助 | 标注风险、生成候选、提示缺失信息 |
| 必须留给人 | 涉及责任、关系、不可逆后果 | 最终审批、对外承诺、正式指派 |
用"做了以后会发生什么"替代"还能不能再自动一步"来决定每列的归属。
以下场景不能靠直觉判断,必须逐条过七项检查:
每一个高风险场景背后,都涉及体验代价、关系代价或责任代价的叠加。
输入:产品方案中 Agent 拟执行的所有动作
处理:
输出:Agent 执行场景清单(附触发条件、可逆性、参与方标记)
输入:Step 1 产出的执行场景清单
处理: 对每个拟执行动作,逐条回答七项检查:
判断标准:任意两项回答为"否"或"不确定"→ 该动作进入"系统辅助判断"或"必须留给人"。
输出:七项检查结果表
输入:Step 2 产出的七项检查结果
处理:
输出:三列分类结果表
输入:Step 3 产出的三列分类结果
处理:
输出:风险评估报告
输入:Step 3 的三列分类 + Step 4 的风险评估
处理:
输出:边界体验设计方案
输入:Step 3-5 的全部产出
处理:
输出:审核通过的边界设计文档
场景描述:一家 SaaS 公司做会后协作 Agent,团队希望 Agent 自动推进会后事项——自动拆任务、指派责任人、发提醒、同步到项目板。
Step 1 场景梳理:
| 动作 | 触发条件 | 可逆性 | 参与方 |
|---|---|---|---|
| 会议录音转写 | 会议结束自动触发 | 可回滚 | 仅参会人 |
| 提炼重点内容 | 会议结束自动触发 | 可修改 | 仅参会人 |
| 拆分任务 | 会议结束自动触发 | 可修改 | 涉及责任人 |
| 指派责任人 | 会议结束自动触发 | 不可逆(涉及承诺) | 涉及责任人 |
| 发送提醒 | 定时触发 | 可取消 | 涉及责任人 |
| 同步到项目板 | 任务生成后自动触发 | 可回滚 | 全团队 |
Step 2 七项检查(以"指派责任人"为例):
Step 3 三列分类:
| 系统直接承接 | 系统辅助判断 | 必须留给人 |
|---|---|---|
| 会议录音转写 | 标注"该事项涉及多个前置条件" | 责任人是否正式认领 |
| 重点内容提炼 | 建议待办候选列表 | 共识是否算成立 |
| 生成待同步草稿 | 标明谁还没给反馈 | 现在推进会不会太早 |
| 提示"以下事项尚未形成稳定共识" | 对外正式沟通内容 |
结论:Agent 不应自动指派责任人,而应暴露分歧、标明缺失、把确认权交还给人。
场景描述:法律科技公司做 AI 合同审查助手,风险等级 high。
Step 1 场景梳理:
| 动作 | 触发条件 | 可逆性 | 参与方 |
|---|---|---|---|
| 标注风险条款 | 上传合同自动触发 | 可修改 | 仅法务 |
| 检查格式一致性 | 上传合同自动触发 | 可回滚 | 仅法务 |
| 提供模板建议 | 上传合同自动触发 | 可修改 | 仅法务 |
| 判断合同是否有效 | 用户请求触发 | 不可逆(涉及法律效力) | 涉及双方 |
| 修改法律条款 | 用户请求触发 | 不可逆 | 涉及双方 |
Step 2 七项检查(以"判断合同是否有效"为例):
Step 3 三列分类:
| 系统直接承接 | 系统辅助判断 | 必须留给人 |
|---|---|---|
| 标注风险条款 | 提示"该条款与标准模板不一致" | 判断合同是否有效 |
| 检查格式一致性 | 提示"同类问题历史通过率" | 修改法律条款 |
| 提供模板建议 | 标注高风险条款清单 | 决定是否签署 |
| 提示"金额超过阈值需人工复核" | 最终法律意见 |
结论:AI 可以标注、提示、整理,但不能替法务做法律判断。系统必须在高风险场景前主动停下来,明确提示"不构成法律建议"。