自我进化
智能体不是静态的
大多数 AI 产品是"静态"的 -- 你用了 100 次和用了 1 次,它的能力完全一样。每次对话都像第一次见面。
DesireCore 的智能体是动态进化的。它会在与你的每次互动中学习、积累、成长。就像一个好员工,入职第一天可能什么都不会,但三个月后就能独当一面。
三层进化机制
智能体的进化分为三个层次:
第一层:规则学习(你教的)
这是最直接的进化方式 -- 你明确告诉同伴应该怎么做。
触发方式:你在对话中主动教学
示例:
- "以后帮我写周报,按照这个格式:先写本周完成,再写下周计划,最后写遇到的问题"
- "审查合同时,如果发现知识产权归属不清,必须标红警告"
产出物:同伴生成一个规则/技能的修改提案(diff),你确认后生效。
第二层:经验积累(互动中学的)
这是隐式的进化 -- 同伴在与你的日常互动中自动捕获有用信息。
触发方式:
- 每次对话自动更新用户画像
- 任务完成后自动复盘提炼经验
- 定期能力自检
同伴会学到什么:
- 你的沟通风格:"用户喜欢简洁直接的回答"
- 你的专业偏好:"用户更关注财务风险而非法律合规"
- 你的工作习惯:"用户通常在周一上午安排本周任务"
- 常见问题模式:"这类合同经常出现保密条款缺失的问题"
第三层:能力扩展(新技能新工具)
通过安装新的技能包或接入新的工具,同伴的能力边界得到扩展。
方式:
- 从智能体市场安装专业技能包
- 接入新的 MCP 工具
- 同伴自己提出"我需要学习这个能力"的建议
四种进化模式
| 模式 | 触发条件 | 产出物 | 需要确认 |
|---|---|---|---|
| 隐式学习 | 每次对话自动触发 | 更新用户画像和关系记忆 | 否(低风险) |
| 显式教学 | 你主动"教"同伴 | 规则/技能 diff | 是 |
| 复盘进化 | 任务完成后自动复盘 | 经验总结、改进建议 | 部分(视风险等级) |
| 协同进化 | 多用户/多同伴交互 | 团队共识、最佳实践 | 是 |
进化的安全边界
自由进化听起来很美好,但如果不加限制,可能导致同伴"人格漂移"或"记忆污染"。因此,DesireCore 设置了严格的进化治理机制。
不可触碰的底线
以下内容不可被自动进化覆盖:
- 核心人格(
persona.md的核心部分):同伴的基本性格不会因为进化而改变 - 安全红线(
principles.md中的"绝不做"):绝对禁止的行为不会被放松 - 权限配置:权限等级不会被自动提升
变更可审阅
所有进化产生的修改都会生成 diff,你可以:
- 查看变更内容:删了什么、加了什么,一目了然
- 接受或拒绝:选择性地接受部分修改
- 回滚:不满意就回退到之前的版本
风险分级
| 风险等级 | 处理方式 | 示例 |
|---|---|---|
| 低风险 | 可自动应用 | 更新用户偏好记忆 |
| 中风险 | 需要你确认 | 修改行为规则 |
| 高风险 | 必须明确同意 | 修改技能参数、调整权限 |
你始终保持控制权
进化不意味着失控。在 DesireCore 中:
- 你决定同伴能学什么 -- 你可以划定进化的范围
- 你审阅同伴学到了什么 -- 所有变更都要经过你的审批(或事后审阅)
- 你可以随时撤销 -- 不满意的"学习成果"可以一键回滚
- 你看得到进化历史 -- 同伴什么时候学了什么,都有记录
进化的目的是让同伴越来越像你想要的样子,而不是让它变成一个你控制不了的"自由意志体"。
下一步
- 想了解同伴的进化成果存在哪里?请阅读 AgentFS 文件系统
- 想了解你如何随时干预?请阅读 三层可控性