模型配置快速入门
这个页面解决一个问题:怎么让 OpenClaw 连上 LLM 模型并开始对话。
配置逻辑
OpenClaw 的模型配置就两步:
- 认证 — 提供 API Key 或 OAuth
- 设置默认模型 —
provider/model格式
json5
// ~/.openclaw/openclaw.json
{
agents: {
defaults: {
model: { primary: "anthropic/claude-sonnet-4-5" }
}
}
}Provider 速查
闭源 API
| Provider | 推荐模型 | 配置键 | 认证方式 | 价位 |
|---|---|---|---|---|
| Anthropic | claude-opus-4-6 | anthropic/claude-opus-4-6 | API Key | $$ |
| OpenAI | gpt-5.4 | openai/gpt-5.4 | API Key / Codex OAuth | $$ |
| MiniMax | M2.5 | minimax/MiniMax-M2.5 | API Key | $ |
| Moonshot | Kimi | moonshot/kimi-k2.5 | API Key | $ |
| GLM | glm-5 | glm/glm-5 | API Key | $ |
聚合网关
| 方案 | 配置格式 | 适用场景 |
|---|---|---|
| OpenRouter | openrouter/<provider>/<model> | 单 Key 访问所有模型 |
| Vercel AI Gateway | vercel-ai-gateway/* | Vercel 生态 |
| Cloudflare AI Gateway | cloudflare-ai-gateway/* | CDN 加速 |
| LiteLLM | litellm/* | 自建统一网关 |
本地/免费
| 方案 | 配置 | 说明 |
|---|---|---|
| Ollama | ollama/<model> | 本地推理 + 云端模型 |
| Qwen OAuth | qwen-portal/* | 免费 2000 次/天 |
| vLLM | vllm/* | 高性能自托管推理 |
最快配置路径
已有 Anthropic Key
bash
openclaw onboard --auth-choice anthropic --anthropic-api-key "sk-ant-xxx"已有 OpenAI Key
bash
openclaw onboard --auth-choice openai-api-key --openai-api-key "sk-xxx"没有 Key,用 Ollama 免费
bash
# 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
ollama pull glm-4.7-flash
# 配置 OpenClaw
openclaw onboard --auth-choice ollama想用国内模型(通义千问)
json5
{
models: {
providers: {
bailian: {
baseUrl: "https://dashscope.aliyuncs.com/compatible-mode/v1",
apiKey: "sk-xxx",
api: "openai-completions",
models: [{
id: "qwen3.5-plus",
name: "Qwen 3.5 Plus",
reasoning: false,
input: ["text", "image"],
contextWindow: 1000000,
maxTokens: 65536
}]
}
}
},
agents: {
defaults: {
model: { primary: "bailian/qwen3.5-plus" }
}
}
}切换模型
在对话中随时切换:
/model anthropic/claude-opus-4-6
/model ollama/glm-4.7-flash或在配置中预设可用模型列表:
json5
{
agents: {
defaults: {
models: {
"anthropic/claude-opus-4-6": { alias: "Opus" },
"openai/gpt-5.4": { alias: "GPT" },
"bailian/qwen3.5-plus": { alias: "Qwen" },
}
}
}
}按场景选方案
| 场景 | 推荐 | 详情 |
|---|---|---|
| 中文 + 低成本 | Qwen / MiniMax | 中文低成本方案 |
| 逻辑推理 | Claude Opus / GPT-5.4 | 推理优先方案 |
| 本地隐私 | Ollama | Ollama 本地模型 |
| 单 Key 多模型 | OpenRouter | OpenRouter 聚合 |
| 高可用 | 主+备 | 模型故障转移 |