跳到正文
🔵 社区案例 — 基于社区验证案例改编 进阶 开发工具

用本地模型驱动 OpenClaw:不花 API 钱也能跑

用 MiniMax 2.5 或其他开源模型替代 Claude API,OpenClaw 不锁定任何模型供应商,本地跑大模型实现零 API 成本。

⚔️ 难度 ★★☆ 进阶
⏱ 配置耗时 20-30 分钟
🎁 掉落 节省 20-30 分钟
🦞 部署 可一键部署

🎯 做完你会得到

OpenClaw 完全用本地模型运行,日常对话、任务执行、文件操作全部免费,只有需要顶级推理时才可选调用云端 API。

👤 适合谁

  • 想省 API 费用的用户
  • 注重数据隐私的用户
  • 有 GPU 的开发者

⚡ 效果预览

MiniMax 2.5 本地跑,日常任务响应 1-3 秒,月 API 费用从 $50 降到 $0

🔧 Step 0:先确认外部工具配置

⚠️ 本案例依赖外部工具(Telegram/Notion/飞书等),先确认已配置 👉 查看常用工具配置指南 →

解决什么问题

OpenClaw 默认用 Claude API,每月 API 费用 $30-100。但很多任务不需要最强模型:

  • 查天气、设提醒 → 任何模型都行
  • 读文件、整理笔记 → 不需要 Claude Opus
  • 日常对话 → 本地小模型完全够用

@pepicrft:“started using minimax m2.5 as the main driver for @openclaw”

@TheZachMueller:“Running fully locally off MiniMax 2.5”

OpenClaw 不锁定任何模型供应商——你可以用 Claude、GPT、Gemini、MiniMax、Llama,甚至本地跑的开源模型。

方案选择

方案一:Ollama + 开源模型(推荐入门)

完全本地运行,零 API 费用。

# 安装 Ollama
curl -fsSL https://ollama.ai/install.sh | sh

# 下载模型(按需选择)
ollama pull phi3          # 3.8B,轻量快速
ollama pull llama3.1      # 8B,综合能力强
ollama pull qwen2.5       # 7B,中文优秀
ollama pull deepseek-r1   # 推理能力强

在 OpenClaw 中配置使用本地模型:

把默认模型改成 ollama/qwen2.5

方案二:MiniMax 2.5(社区热门)

MiniMax 2.5 是社区验证最多的本地模型方案,综合能力接近 Claude Sonnet。

# 通过 Ollama 运行 MiniMax
ollama pull minimax

方案三:混合模式(最佳性价比)

日常用本地模型,复杂任务调云端:

在 AGENTS.md 中设置:

## 模型策略
- 默认:ollama/qwen2.5(本地免费)
- 写代码/debug:claude-sonnet(云端)
- 深度分析/长文:claude-opus(云端,按需)

硬件要求

模型最低配置推荐配置响应速度
Phi-3 (3.8B)8GB 内存16GB即时
Qwen 2.5 (7B)16GB 内存32GB1-2 秒
Llama 3.1 (8B)16GB 内存32GB + GPU1-3 秒
MiniMax 2.516GB 内存32GB + GPU1-3 秒

没有 GPU 也能跑——速度会慢一些,但日常任务完全够用。

预期结果

  • 日常对话:本地模型秒回,不消耗任何 API 费用
  • 数据隐私:所有数据留在本地,不上传云端
  • 中文能力:Qwen 2.5 的中文能力非常好
  • 复杂任务:可随时切换到云端大模型

踩坑记录

本地模型中文能力参差不齐

症状:有些模型中文回答质量差,出现乱码或语法错误。

解法:选中文优化过的模型——Qwen 2.5 和 DeepSeek 的中文能力最好。

模型太大内存不够

症状:下载 70B 模型后跑不动。

解法:从小模型开始。Phi-3 只要 8GB 内存就能跑,日常任务够用。

回答质量不如 Claude

症状:复杂推理和长文写作明显不如。

解法:这是预期行为——本地模型的优势是免费和隐私,不是要替代顶级模型。复杂任务手动切到云端模型。

不满意怎么调

  • 想更快 → 加 GPU(NVIDIA RTX 3060 起步)或用更小的模型
  • 想更强 → 用 MiniMax 2.5 或等更强的开源模型
  • 想完全不用云端 → 纯本地模式,在配置里关闭所有云端 API
#本地模型#MiniMax#Ollama#省钱#隐私