算力服务配置
算力服务(Compute Service)是 DesireCore 的核心配置之一。智能体需要调用 AI 模型来理解你的意图、生成回复和执行任务,而这些模型由各家 AI 供应商(Provider)提供。你需要在这里配置至少一个供应商,智能体才能正常工作。
基本概念
- 供应商(Provider):提供 AI 模型服务的平台,如 OpenAI、Anthropic、DeepSeek 等
- API Key:供应商给你的密钥,用于验证身份和计费
- 模型(Model):具体的 AI 模型,如 GPT-4o、Claude 3.5 Sonnet、DeepSeek-V3 等
- 默认映射(Default Mapping):指定不同用途应使用哪个模型
进入算力服务配置
有两种方式进入:
- 设置面板 → 点击 算力服务 分区(会跳转到资源管理器)
- 资源管理器 → 点击 算力 卡片 → AI 服务 Tab
支持的 AI 供应商
DesireCore 内置了 20 多家主流 AI 供应商的配置模板:
| 供应商 | 说明 |
|---|---|
| OpenAI | GPT-4o、GPT-4o-mini 等 |
| Anthropic | Claude 3.5 Sonnet、Claude 3 Opus 等 |
| DeepSeek | DeepSeek-V3、DeepSeek-R1 等 |
| Gemini 系列 | |
| 智谱 AI | GLM 系列 |
| 百度文心 | ERNIE 系列 |
| 通义千问 | Qwen 系列 |
| Moonshot | Kimi 系列 |
| 硅基流动 | 聚合多家模型 |
| OpenRouter | 聚合多家模型的统一接口 |
| Ollama | 本地部署的开源模型 |
| 更多... | Mistral、Cohere、xAI、Perplexity、火山引擎、讯飞等 |
如何选择性价比最优的配置
- 预算有限:推荐 DeepSeek 或通义千问,国产模型价格较低且中文能力优秀
- 追求质量:推荐 Anthropic Claude 或 OpenAI GPT-4o
- 完全免费:使用 Ollama 在本地运行开源模型(需要较好的硬件配置)
- 灵活搭配:配置多个供应商,用价格低的模型处理日常对话,用高端模型处理复杂任务
添加 AI 供应商
- 在 AI 服务页面,点击左侧供应商列表中的目标供应商
- 右侧面板会显示该供应商的配置表单
- 填写你的 API Key
- 如有需要,修改 端点(Endpoint)(大多数情况下保持默认即可)
- 配置完成后,点击验证确认连接正常
自定义供应商
如果你使用的供应商不在内置列表中(例如私有部署的 AI 服务),可以点击 添加自定义供应商,手动配置端点和认证方式。自定义供应商需要兼容 OpenAI API 格式。
管理 API Key
你的 API Key 通过以下方式得到保护:
- API Key 存储在本地设备的系统凭据管理器中(macOS Keychain / Windows Credential Manager / Linux Secret Service)
- 配置文件中只保存加密引用,不保存明文
- API Key 不会上传到 DesireCore 服务器或任何第三方
修改 API Key:选择供应商后,点击 编辑 按钮,输入新的 Key 即可覆盖旧值。
模型验证
配置完供应商后,建议验证模型是否可用:
- 选择一个已配置的供应商
- 点击 验证全部模型 按钮
- 系统会逐一检测每个模型的可用性
验证结果会以状态标签显示:
| 状态 | 含义 |
|---|---|
| 可用 | 模型正常工作 |
| 异常 | 模型返回错误,可能是 Key 无权访问该模型 |
| 超时 | 请求超时,可能是网络问题 |
| 检测中 | 正在验证 |
默认模型映射
DesireCore 的智能体在执行不同任务时需要不同类型的模型。默认映射让你指定各用途应该使用哪个模型。
常见的用途类型:
- 对话生成:日常对话和文本生成
- 代码生成:编写和修改代码
- 文档处理:分析和生成文档
- 工具调用:需要 Function Calling 能力的场景
你可以在 默认映射 Tab 中为每种用途选择模型。未设置的用途会使用全局默认模型。
信息
单个智能体也可以覆盖默认映射,在智能体详情的设置中指定该智能体专用的模型。智能体级别的设置优先于全局默认映射。
多供应商管理
你可以同时配置多个供应商。这样做的好处:
- 冗余备份:当一个供应商的服务不可用时,可以切换到其他供应商
- 成本优化:日常任务用便宜的模型,关键任务用高端模型
- 能力互补:不同供应商的模型各有所长