三层可控性
核心问题:我能信任 AI 吗
让 AI 帮你做事最大的障碍不是"它能不能做",而是"我敢不敢让它做"。
- "它是不是在背后做了什么我不知道的事?"
- "它犯错了我怎么办?"
- "万一它搞砸了,还能补救吗?"
DesireCore 通过三层可控性模型来回答这些问题,让你在享受 AI 效率的同时,始终掌握主动权。
三层可控性模型
L1:可见(Visible)-- "我能看到它在做什么"
核心含义:智能体的所有行为对你完全透明。
具体表现:
- 实时状态可见:同伴正在做什么、进展如何,你随时可以看到
- 决策过程可见:同伴为什么做这个决定、依据了什么规则、参考了什么记忆
- 修改内容可见:同伴对文件的每次修改都以 diff 形式展示(红色删除、绿色新增)
- 工具调用可见:同伴使用了哪些工具、输入了什么参数、得到了什么结果
类比:就像一个开着门工作的员工 -- 你随时可以走过去看看他在做什么。
L2:可控(Controllable)-- "我能决定它能做什么"
核心含义:你可以随时介入、确认或阻断智能体的行为。
具体表现:
- 权限分级:不同操作有不同的权限要求
allow:自动允许(低风险操作)ask:每次询问(默认模式,敏感操作)deny:自动拒绝(被禁止的操作)
- 实时中断:你可以随时暂停或终止正在执行的任务
- 人闸门:高风险步骤自动暂停,等你确认
- 规则可配:"允许它读文件,但写文件要问我"
类比:就像给员工不同级别的门禁卡 -- 有些地方可以自由进出,有些地方需要你刷卡才能进。
L3:可逆(Reversible)-- "做错了我能改回来"
核心含义:任何操作都可以撤销或回滚。
具体表现:
- 逐步回滚:撤销单次修改(Patch 级别)
- 按轮回滚:回到某轮对话之前的状态(Turn 级别)
- 会话回滚:回到整个会话开始前的状态(Session 级别)
- 版本快照:任意时刻可以回到智能体的历史版本
类比:就像文档的"撤销"功能,但覆盖了智能体的所有行为 -- 不仅能撤销文字修改,还能撤销操作、撤销学习、撤销记忆。
为什么这三层如此重要
这三层形成了一个信任阶梯:
三层缺一不可:
- 只有可见没有可控?看得到但管不了,等于被迫旁观
- 只有可控没有可逆?管得了但救不回,犯错代价太大
- 只有可逆没有可见?能救回但看不到,不知道什么时候该救
与其他 AI 产品的对比
| 可控性维度 | 传统聊天 AI | 低代码/RPA | DesireCore |
|---|---|---|---|
| 行为可见性 | 只看到输出 | 看到流程图 | 实时看到每一步 |
| 权限控制 | 无 | 固定流程 | 灵活分级 |
| 实时中断 | 只能停止生成 | 可暂停流程 | 随时中断任何操作 |
| 回滚能力 | 无 | 重跑流程 | 逐步/按轮/整会话回滚 |
| 决策透明 | 黑箱 | 看规则 | 看规则 + AI 决策依据 |
实践中的可控性
在日常使用中,三层可控性体现为:
- 确认对话框:当同伴要做敏感操作时,会弹出确认框,告诉你操作内容、风险等级和影响范围
- Diff 预览:同伴修改文件前,先展示 diff,你逐条审阅后再应用
- 回执系统:每次任务都有完整记录,随时可查
- 版本历史:智能体的每次变化都可追溯、可回滚