Ollama 本地模型
Ollama 让你在自己的机器上跑开源模型。隐私性好,零 API 成本(但需要算力)。
安装
bash
curl -fsSL https://ollama.com/install.sh | sh验证安装成功:
bash
# 检查 Ollama 服务状态
ollama list
# 应该显示已安装的模型列表
# 如果是首次安装,列表为空是正常的本地模型
bash
# 拉取模型(按需选择)
ollama pull glm-4.7-flash # 推荐:快速、中文好
ollama pull llama3.3 # Meta 开源
ollama pull gpt-oss:20b # 开源替代
# 查看已安装模型
ollama list
# 测试模型
ollama run glm-4.7-flash "你好"云端模型(免费)
bash
# 登录 Ollama 账号
ollama signin
# 云端模型无需 pull,直接可用:
# kimi-k2.5:cloud
# minimax-m2.5:cloud
# glm-5:cloudTIP
云端模型需要网络连接,本地模型可以离线使用。
接入 OpenClaw
向导方式(推荐)
bash
openclaw onboard --auth-choice ollama选择 Cloud + Local(本地 + 云端)或 Local(仅本地)。
手动配置
json5
// ~/.openclaw/openclaw.json
{
models: {
providers: {
ollama: {
baseUrl: "http://127.0.0.1:11434",
apiKey: "ollama-local" // 任意值,Ollama 不验证
}
}
},
agents: {
defaults: {
model: { primary: "ollama/glm-4.7-flash" }
}
}
}关键注意
baseUrl 用 http://host:11434,不要加 /v1。
加了 /v1 会走 OpenAI 兼容模式,tool calling 会坏掉(模型输出原始 JSON 文本而不是调用工具)。
验证配置成功:
bash
openclaw status
# Ollama 行应该显示 OK远程 Ollama
如果 Ollama 跑在另一台机器上:
json5
{
models: {
providers: {
ollama: {
baseUrl: "http://192.168.1.100:11434",
apiKey: "ollama-local"
}
}
}
}确保远程 Ollama 绑定到 0.0.0.0:
bash
# 在 Ollama 机器上
OLLAMA_HOST=0.0.0.0 ollama serve非交互安装
bash
openclaw onboard --non-interactive \
--auth-choice ollama \
--custom-base-url "http://127.0.0.1:11434" \
--custom-model-id "glm-4.7-flash" \
--accept-risk硬件建议
| 模型大小 | 最低内存 | 推荐 GPU | 速度 |
|---|---|---|---|
| 7B | 8GB RAM | 无(CPU 可跑,慢) | 5-15 tokens/s |
| 13B | 16GB RAM | 8GB VRAM | 20-40 tokens/s |
| 27B+ | 32GB RAM | 16GB+ VRAM | 10-20 tokens/s |
没有 GPU 也能跑,只是慢。7B 模型在纯 CPU 上大约 5-15 tokens/sec。
常见问题
Q: 模型下载慢?
bash
# 使用镜像源(中国大陆)
export OLLAMA_ORIGINS=https://ollama.aidanlun.com
ollama pull glm-4.7-flashQ: 显存不足?
bash
# 限制模型使用的显存
OLLAMA_MAX_VRAM=4GB ollama serveQ: 如何删除模型?
bash
ollama rm glm-4.7-flash