OpenClaw 支持哪些 AI 模型?
OpenClaw 采用模型无关架构,支持通过统一接口接入多种大语言模型。无论你偏好 Anthropic 的 Claude、OpenAI 的 GPT,还是国内的 MiniMax、DeepSeek,OpenClaw 都能无缝对接。
支持的模型分类
| 提供商 | 代表模型 | 特点 | 适用场景 |
|---|---|---|---|
| Anthropic | Claude 3.5 Sonnet、Claude 3 Haiku | 推理强、代码能力顶尖 | 复杂任务、代码生成 |
| OpenAI | GPT-4o、GPT-4o mini | 生态最广、工具调用成熟 | 通用对话、工具链 |
| Gemini 1.5 Pro、Gemini Flash | 长上下文、多模态 | 文档分析、图像理解 | |
| DeepSeek | DeepSeek-V3、DeepSeek-R1 | 国内直连、性价比极高 | 代码、推理任务 |
| MiniMax | MiniMax M2.5、M2.1 | 国内直连、免费额度多 | 日常对话、轻量任务 |
| Ollama | Llama 3、Qwen2.5、Mistral 等 | 完全本地、零成本 | 隐私敏感场景 |
如何在 openclaw.json 中配置多个模型
在项目根目录的 openclaw.json 中,通过 models 数组配置多个模型提供商:
{
"models": [
{
"provider": "anthropic",
"apiKey": "sk-ant-...",
"models": ["claude-3-5-sonnet-20241022", "claude-3-haiku-20240307"]
},
{
"provider": "minimax",
"apiKey": "your-minimax-key",
"models": ["MiniMax-M2.5"]
},
{
"provider": "ollama",
"baseUrl": "http://localhost:11434",
"models": ["llama3", "qwen2.5"]
}
],
"defaultModel": "MiniMax-M2.5"
}
国内用户推荐方案
国内用户访问 OpenAI 和 Anthropic 需要代理,推荐优先选择:
- MiniMax:注册即送免费额度,国内直连速度快,适合日常使用
- DeepSeek:价格极低,代码推理能力强,API 国内可直接访问
- Ollama 本地模型:完全免费,无需联网,适合隐私要求高的场景
如何切换默认模型
修改 openclaw.json 中的 defaultModel 字段,填入模型名称后重启 gateway 服务即可生效。也可以在对话界面顶部的模型选择器中临时切换,不影响配置文件。
常见问题
Q:如何免费使用模型?
MiniMax 注册后有免费 token 额度,Ollama 本地运行完全免费。各大厂商也定期提供试用额度,可关注官方公告。
Q:Ollama 怎么配置?
先在本机安装 Ollama 并运行 ollama pull llama3 拉取模型,然后在 openclaw.json 中将 provider 设为 ollama,baseUrl 填 http://localhost:11434 即可。
延伸阅读
- OpenClaw MiniMax 配置完整指南 — 国内直连免费方案详解
- OpenClaw 如何完全免费使用 — 零成本跑 AI Agent 的完整攻略