🎖️ 任务奖励 — 学完你能做到
成功配置至少一个主力模型 + 一个省钱备选,并知道何时切换
📖 本章目标:选择适合自己的模型方案,在性能与成本之间找到最优平衡
6.1 模型提供商总览
OpenClaw 支持所有主流模型,可按需混合部署:
国际模型:Claude / GPT / Gemini
国产模型:DeepSeek / GLM / Qwen / 豆包 / Kimi / MiniMax
本地模型:Ollama / LM Studio(完全离线)
6.2 国际模型
| 模型 | 特点 | 推荐场景 |
|---|---|---|
| Claude Sonnet 4.6 | 综合最强,代码/分析/写作均优秀 | 主力模型 ⭐ |
| GPT-5.4 | OpenAI 旗舰,生态最广 | 备用主力 |
| Gemini 3 Pro | 多模态强,免费额度高 | 省钱替代 |
6.3 国产模型(国内首选)
| 模型 | 输入价格 | 核心优势 | 推荐场景 |
|---|---|---|---|
| DeepSeek-V3.2 | $0.14/M | 极致低价,综合性能强 | 日常任务省钱 ⭐ |
| GLM-5 | — | 国产代码能力最强 | 代码开发 |
| Qwen 3.5 | — | 中文理解优秀 | 中文任务 |
| 豆包 Seed2.0 | — | 性价比高 | 通用任务 |
| Kimi K2.5 | — | 长文本处理强 | 长文档分析 |
| MiniMax M2.5 | — | SWE-bench 高分 | 复杂编程 |
💡 国内用户首选:DeepSeek(低价)+ GLM-5(代码)+ Kimi(长文本)
6.4 本地模型
完全免费,数据不出本地,隐私最强
运行工具
- Ollama:最流行,一键安装,支持多种模型
- LM Studio:有图形界面,新手友好
推荐本地模型
| 模型 | 显存需求 | 特点 |
|---|---|---|
| Qwen3.5-Coder:32B | ~20GB | 代码能力强 |
| Devstral-24B | ~16GB | 综合性能好 |
硬件要求
| 配置 | 说明 |
|---|---|
| 内存 | 16GB~32GB(运行本地模型必须) |
| GPU | 可选,有 GPU 速度更快 |
6.5 五套省钱方案
方案一:极致省钱
主力:DeepSeek-V3.2
备用:Gemini 免费额度
适合:预算极少,接受偶尔性能不足
方案二:国产性价比
主力:GLM-5
辅助:DeepSeek + Kimi
适合:国内用户,不想用国际账号
方案三:国际平衡
主力:Claude Sonnet 4.6
轻量:Claude Haiku
免费补充:Gemini 免费额度
适合:追求质量,有一定预算
方案四:混合最优 ⭐ 推荐
复杂任务:Claude Sonnet 4.6(高质量)
日常任务:DeepSeek-V3.2(省钱)
定时任务:本地 Ollama(完全免费)
适合:追求最优性价比
方案五:完全免费
全部:本地 Ollama 模型
适合:有足够硬件,不想花任何钱
6.6 模型配置示例
配置多模型 Fallback 链
{
"models": {
"default": "claude-sonnet-4-6",
"fallback": [
"deepseek-v3",
"gemini-pro"
]
},
"routing": {
"code": "glm-5",
"longtext": "kimi-k2.5",
"simple": "deepseek-v3"
}
}
6.7 成本预估参考
⚠️ OpenClaw 的 Token 消耗是普通聊天的 几十到上百倍,必须提前规划预算!
| 使用强度 | 推荐方案 | 月均成本(估算) |
|---|---|---|
| 轻度(每天<10条指令) | DeepSeek 为主 | ¥10-30/月 |
| 中度(每天10-50条) | 混合最优方案 | ¥50-150/月 |
| 重度(定时任务+大量使用) | 混合最优+本地模型 | ¥100-500/月 |
💡 必须设置每日预算上限,避免意外超支!