🎯 做完你会得到
配置好国产模型,不需要梯子也能用 OpenClaw
🛠 需要什么
- filesystem
👤 适合谁
- OpenClaw用户
- 想自定义模型的用户
⚡ 效果预览
一键切换Claude/GPT/本地模型,找到最适合自己场景的AI搭档
🔧 Step 0:先确认外部工具配置
⚠️ 本案例依赖外部工具(Telegram/Notion/飞书等),先确认已配置 👉 查看常用工具配置指南 →
这个场景解决什么问题
Claude/GPT 要梯子或信用卡,国内用户配置麻烦。通过配置国产模型(千问/DeepSeek/GLM),直接在国内使用,按量付费成本低,效果也不差。
直接复制这段:千问配置(推荐新手)
注册 阿里云百炼平台 获取 API Key,然后在 ~/.openclaw/openclaw.json 中配置:
{
"env": {
"OPENAI_API_KEY": "sk-xxx(填你的千问 API Key)",
"OPENAI_BASE_URL": "https://dashscope.aliyuncs.com/compatible-mode/v1"
},
"agents": {
"defaults": {
"model": {
"primary": "openai/qwen-plus"
}
}
}
}
保存后重启:
openclaw gateway restart
openclaw models status # 验证模型配置
其他国产模型配置
DeepSeek(便宜,推理能力强)
{
"env": {
"OPENAI_API_KEY": "sk-xxx",
"OPENAI_BASE_URL": "https://api.deepseek.com/v1"
},
"agents": {
"defaults": {
"model": { "primary": "openai/deepseek-chat" }
}
}
}
Kimi(长上下文)
注册 Moonshot 开放平台:
openclaw onboard --auth-choice moonshot-api-key
或手动配置:
{
"env": { "MOONSHOT_API_KEY": "sk-..." },
"agents": {
"defaults": {
"model": { "primary": "moonshot/kimi-k2.5" }
}
}
}
GLM / Z.AI(智谱AI)
注册 Z.AI 平台:
openclaw onboard --auth-choice zai-api-key
或手动配置:
{
"env": { "ZAI_API_KEY": "sk-..." },
"agents": {
"defaults": {
"model": { "primary": "zai/glm-5" }
}
}
}
硅基流动(多模型聚合,新用户有免费额度)
注册 硅基流动:
{
"env": {
"OPENAI_API_KEY": "sk-xxx",
"OPENAI_BASE_URL": "https://api.siliconflow.cn/v1"
},
"agents": {
"defaults": {
"model": { "primary": "openai/deepseek-ai/DeepSeek-V3" }
}
}
}
OpenRouter(一个 Key 用所有模型)
注册 OpenRouter:
openclaw onboard --auth-choice apiKey --token-provider openrouter --token "sk-or-xxx"
或手动配置:
{
"env": { "OPENROUTER_API_KEY": "sk-or-..." },
"agents": {
"defaults": {
"model": { "primary": "openrouter/anthropic/claude-sonnet-4-5" }
}
}
}
本地模型:Ollama(完全离线,隐私最高)
# 1. 安装 Ollama
curl -fsSL https://ollama.ai/install.sh | sh
# 2. 下载模型(按内存选)
ollama pull qwen2.5:7b # 8GB RAM,综合能力好
ollama pull llama3.3 # 8GB RAM,英文能力强
ollama pull deepseek-r1:8b # 8GB RAM,推理能力强
# 3. 配置 OpenClaw 使用 Ollama
openclaw config set models.providers.ollama.apiKey "ollama-local"
然后在 openclaw.json 中设置默认模型:
{
"agents": {
"defaults": {
"model": { "primary": "ollama/qwen2.5:7b" }
}
}
}
⚠️ 注意:不要用 Ollama 的 /v1 路径(http://127.0.0.1:11434/v1),会导致工具调用失效。正确的 baseUrl 是 http://127.0.0.1:11434(无 /v1)。
国产模型对比
| 模型 | 特长 | 价格 | 注册难度 |
|---|---|---|---|
| 千问 Plus | 综合能力强,中文好 | 低 | ⭐ 最简单(阿里云账号) |
| DeepSeek Chat | 对话/推理,性价比极高 | 极低 | ⭐ 简单 |
| Kimi K2 | 超长上下文 | 中 | ⭐ 简单 |
| GLM-5 | 智谱AI,中文强 | 低 | ⭐ 简单 |
| 硅基流动 | 聚合多种模型 | 极低 | ⭐ 简单,新用户有免费额度 |
验证模型配置
openclaw models status # 查看模型状态
openclaw doctor # 诊断配置问题
注意事项
- 配置
OPENAI_BASE_URL会覆盖默认的 OpenAI 端点,适合所有 OpenAI 兼容 API - 切换模型不影响已有对话记忆(记忆存在 workspace 文件里)
- Ollama 本地模型推理速度慢,适合隐私场景,不适合实时对话
- API Key 放在
env字段里,比直接写在providers字段里更安全(支持.env文件)
#模型配置#千问#DeepSeek#Ollama#GLM#成本优化
⚔️ 同类副本推荐 ⚔️