跳到正文
🟠 需外部服务 — 需自备相关账号/权限 入门 开发工具

OpenClaw 模型配置:国产 + 国际 + 本地全覆盖

配置千问、DeepSeek、Kimi、GLM、Ollama 本地模型,按需切换 AI,降低使用成本

⚔️ 难度 ★☆☆ 入门
⏱ 配置耗时 10 分钟
🎁 掉落 节省 10 分钟
📜 所需秘籍 filesystem
🦞 部署 可一键部署

🎯 做完你会得到

配置好国产模型,不需要梯子也能用 OpenClaw

🛠 需要什么

  • filesystem

👤 适合谁

  • OpenClaw用户
  • 想自定义模型的用户

⚡ 效果预览

一键切换Claude/GPT/本地模型,找到最适合自己场景的AI搭档

🔧 Step 0:先确认外部工具配置

⚠️ 本案例依赖外部工具(Telegram/Notion/飞书等),先确认已配置 👉 查看常用工具配置指南 →

这个场景解决什么问题

Claude/GPT 要梯子或信用卡,国内用户配置麻烦。通过配置国产模型(千问/DeepSeek/GLM),直接在国内使用,按量付费成本低,效果也不差。

直接复制这段:千问配置(推荐新手)

注册 阿里云百炼平台 获取 API Key,然后在 ~/.openclaw/openclaw.json 中配置:

{
  "env": {
    "OPENAI_API_KEY": "sk-xxx(填你的千问 API Key)",
    "OPENAI_BASE_URL": "https://dashscope.aliyuncs.com/compatible-mode/v1"
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "openai/qwen-plus"
      }
    }
  }
}

保存后重启:

openclaw gateway restart
openclaw models status   # 验证模型配置

其他国产模型配置

DeepSeek(便宜,推理能力强)

注册 DeepSeek Platform

{
  "env": {
    "OPENAI_API_KEY": "sk-xxx",
    "OPENAI_BASE_URL": "https://api.deepseek.com/v1"
  },
  "agents": {
    "defaults": {
      "model": { "primary": "openai/deepseek-chat" }
    }
  }
}

Kimi(长上下文)

注册 Moonshot 开放平台

openclaw onboard --auth-choice moonshot-api-key

或手动配置:

{
  "env": { "MOONSHOT_API_KEY": "sk-..." },
  "agents": {
    "defaults": {
      "model": { "primary": "moonshot/kimi-k2.5" }
    }
  }
}

GLM / Z.AI(智谱AI)

注册 Z.AI 平台

openclaw onboard --auth-choice zai-api-key

或手动配置:

{
  "env": { "ZAI_API_KEY": "sk-..." },
  "agents": {
    "defaults": {
      "model": { "primary": "zai/glm-5" }
    }
  }
}

硅基流动(多模型聚合,新用户有免费额度)

注册 硅基流动

{
  "env": {
    "OPENAI_API_KEY": "sk-xxx",
    "OPENAI_BASE_URL": "https://api.siliconflow.cn/v1"
  },
  "agents": {
    "defaults": {
      "model": { "primary": "openai/deepseek-ai/DeepSeek-V3" }
    }
  }
}

OpenRouter(一个 Key 用所有模型)

注册 OpenRouter

openclaw onboard --auth-choice apiKey --token-provider openrouter --token "sk-or-xxx"

或手动配置:

{
  "env": { "OPENROUTER_API_KEY": "sk-or-..." },
  "agents": {
    "defaults": {
      "model": { "primary": "openrouter/anthropic/claude-sonnet-4-5" }
    }
  }
}

本地模型:Ollama(完全离线,隐私最高)

# 1. 安装 Ollama
curl -fsSL https://ollama.ai/install.sh | sh

# 2. 下载模型(按内存选)
ollama pull qwen2.5:7b    # 8GB RAM,综合能力好
ollama pull llama3.3      # 8GB RAM,英文能力强
ollama pull deepseek-r1:8b  # 8GB RAM,推理能力强

# 3. 配置 OpenClaw 使用 Ollama
openclaw config set models.providers.ollama.apiKey "ollama-local"

然后在 openclaw.json 中设置默认模型:

{
  "agents": {
    "defaults": {
      "model": { "primary": "ollama/qwen2.5:7b" }
    }
  }
}

⚠️ 注意:不要用 Ollama 的 /v1 路径(http://127.0.0.1:11434/v1),会导致工具调用失效。正确的 baseUrl 是 http://127.0.0.1:11434(无 /v1)。

国产模型对比

模型特长价格注册难度
千问 Plus综合能力强,中文好⭐ 最简单(阿里云账号)
DeepSeek Chat对话/推理,性价比极高极低⭐ 简单
Kimi K2超长上下文⭐ 简单
GLM-5智谱AI,中文强⭐ 简单
硅基流动聚合多种模型极低⭐ 简单,新用户有免费额度

验证模型配置

openclaw models status    # 查看模型状态
openclaw doctor           # 诊断配置问题

注意事项

  • 配置 OPENAI_BASE_URL 会覆盖默认的 OpenAI 端点,适合所有 OpenAI 兼容 API
  • 切换模型不影响已有对话记忆(记忆存在 workspace 文件里)
  • Ollama 本地模型推理速度慢,适合隐私场景,不适合实时对话
  • API Key 放在 env 字段里,比直接写在 providers 字段里更安全(支持 .env 文件)
#模型配置#千问#DeepSeek#Ollama#GLM#成本优化