跳到主要内容

AI 自主审批

不是每件事都需要你亲自批

DesireCore 的风险等级体系和确认对话框确保了每个操作都在你的掌控之下。但随着使用深入,你会发现很多操作是重复且低风险的——比如读取文件、查询信息、写入你已经信任的目录。每次都手动点"允许"既打断工作流,也没有实际的安全收益。

另一方面,完全放开确认又不可取——你仍然需要对高风险操作保持警惕。

AI 自主审批是两者之间的平衡方案:让 AI 基于你的审批习惯,自动处理那些你一定会通过的常规操作,同时将真正需要你判断的决策留给你。

工作原理

AI 自主审批的核心逻辑很简单:学习你的审批偏好,替你做出常规决策。

当智能体发起一个操作请求时,系统先进行风险评估。如果操作属于低风险,并且匹配你过去一贯"通过"的操作模式,AI 会自动审批并立即执行。否则,操作仍然会通过确认对话框等待你的手动决策。

这类似于邮件客户端的垃圾邮件过滤——系统从你的行为中学习,逐渐识别哪些邮件你总是标记为垃圾、哪些你总是保留。不同之处在于,AI 自主审批处理的是"你总是通过的操作"。

审批决策流程

操作请求 → 风险评估 → 低风险?
├─ 是 → 匹配已学习偏好?
│ ├─ 是 → AI 自动审批,立即执行
│ └─ 否 → 弹出确认对话框
└─ 否 → 弹出确认对话框,等待你确认

与确认对话框的关系

AI 自主审批并非取代确认对话框,而是智能地减少它的出现频率。

确认对话框(手动)AI 自主审批
适用场景中/高/关键风险操作低风险、常规操作
决策者AI(基于你的偏好)
响应速度等待你确认即时
审计记录
可回溯可以可以

两者协同工作:AI 处理你不需要操心的部分,确认对话框守住你需要关注的部分。

AI 如何学习你的审批偏好

AI 自主审批的学习来源包括:

  • 历史审批记录:你过去对同类操作的审批决策。如果某类操作你连续多次选择"允许",AI 会逐渐将其标记为可自动审批
  • "允许并记住"规则:你在确认对话框中主动设置的权限规则会直接纳入 AI 的判断依据
  • 操作上下文:AI 不仅看操作类型,还会考虑操作的目标路径、参数范围、发起时的任务上下文等因素

随着使用时间的增长,AI 对你偏好的理解会越来越准确,需要手动确认的操作会越来越少。

冷启动期

刚开始使用时,AI 的学习样本较少,大部分操作仍然需要手动确认。这是正常的——给它一些时间学习你的习惯,审批效率会逐渐提升。

配置审批策略

你可以在 设置 → 权限管理 → AI 自主审批 中精细配置审批策略。

按风险等级配置

为不同风险等级设置 AI 自主审批的启用范围:

  • 低风险:默认启用 AI 自主审批(推荐)
  • 中风险:可选择性启用,仅对你明确信任的操作类别生效
  • 高风险 / 关键风险:始终需要手动确认,不可启用 AI 自主审批

按操作类别配置

针对具体操作类型设置审批策略:

  • 文件读取:自动审批
  • 特定目录写入:自动审批(如 docs/ 目录)
  • Shell 命令执行:需要手动确认
  • API 调用:按供应商单独配置

按智能体配置

如果你有多个智能体,可以为每个智能体设置不同的审批策略。例如,你信任的"文档助手"智能体可以获得更宽松的自动审批权限,而新创建的智能体可能需要更严格的手动确认。

审计与可观测性

所有 AI 自动审批的决策都有完整的审计记录,与手动审批的记录存放在同一个活动记录面板中。

每条 AI 自主审批记录包含:

字段说明
审批时间操作被审批的精确时间
操作内容具体执行了什么操作
风险评估结果系统判定的风险等级
审批依据AI 做出审批决策的理由,包括匹配了哪条偏好规则
审批方式标注为"AI 自动审批",区别于手动审批

你可以在活动记录中通过筛选条件,单独查看所有 AI 自动审批的记录。

定期审阅

建议定期查看 AI 自主审批的日志,确认它的决策符合你的预期。如果发现不合理的审批,可以将其标记为"错误"——AI 会根据你的反馈更新偏好模型,避免重复犯错。

安全保障

AI 自主审批在设计上遵循以下安全原则:

  • 高风险始终人工确认:AI 自主审批仅处理低风险和部分中风险操作,高风险和关键风险操作始终需要你手动确认,这一限制不可被覆盖
  • 随时可关闭:你可以在设置中一键关闭 AI 自主审批,回到全手动确认模式
  • 决策可追溯:每条自动审批记录都包含完整的决策依据,支持事后审查
  • 反馈可纠错:标记错误的审批决策后,AI 会立即调整偏好模型
  • 不影响可逆性:即使操作被自动审批并执行,你仍然可以通过三层可控性中的回滚机制撤销变更
注意

AI 自主审批旨在减少低风险操作的审批负担,而非替代你对重要决策的判断。对于涉及敏感数据、不可逆操作或你不确定的场景,建议保持手动确认。

下一步