Skip to content

Ollama 本地模型

Ollama 让你在自己的机器上跑开源模型。隐私性好,零 API 成本(但需要算力)。

安装

bash
curl -fsSL https://ollama.com/install.sh | sh

验证安装成功:

bash
# 检查 Ollama 服务状态
ollama list

# 应该显示已安装的模型列表
# 如果是首次安装,列表为空是正常的

本地模型

bash
# 拉取模型(按需选择)
ollama pull glm-4.7-flash     # 推荐:快速、中文好
ollama pull llama3.3           # Meta 开源
ollama pull gpt-oss:20b        # 开源替代

# 查看已安装模型
ollama list

# 测试模型
ollama run glm-4.7-flash "你好"

云端模型(免费)

bash
# 登录 Ollama 账号
ollama signin

# 云端模型无需 pull,直接可用:
# kimi-k2.5:cloud
# minimax-m2.5:cloud
# glm-5:cloud

TIP

云端模型需要网络连接,本地模型可以离线使用。

接入 OpenClaw

向导方式(推荐)

bash
openclaw onboard --auth-choice ollama

选择 Cloud + Local(本地 + 云端)或 Local(仅本地)。

手动配置

json5
// ~/.openclaw/openclaw.json
{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://127.0.0.1:11434",
        apiKey: "ollama-local"     // 任意值,Ollama 不验证
      }
    }
  },
  agents: {
    defaults: {
      model: { primary: "ollama/glm-4.7-flash" }
    }
  }
}

关键注意

baseUrlhttp://host:11434不要加 /v1

加了 /v1 会走 OpenAI 兼容模式,tool calling 会坏掉(模型输出原始 JSON 文本而不是调用工具)。

验证配置成功:

bash
openclaw status
# Ollama 行应该显示 OK

远程 Ollama

如果 Ollama 跑在另一台机器上:

json5
{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://192.168.1.100:11434",
        apiKey: "ollama-local"
      }
    }
  }
}

确保远程 Ollama 绑定到 0.0.0.0

bash
# 在 Ollama 机器上
OLLAMA_HOST=0.0.0.0 ollama serve

非交互安装

bash
openclaw onboard --non-interactive \
  --auth-choice ollama \
  --custom-base-url "http://127.0.0.1:11434" \
  --custom-model-id "glm-4.7-flash" \
  --accept-risk

硬件建议

模型大小最低内存推荐 GPU速度
7B8GB RAM无(CPU 可跑,慢)5-15 tokens/s
13B16GB RAM8GB VRAM20-40 tokens/s
27B+32GB RAM16GB+ VRAM10-20 tokens/s

没有 GPU 也能跑,只是慢。7B 模型在纯 CPU 上大约 5-15 tokens/sec。

常见问题

Q: 模型下载慢?

bash
# 使用镜像源(中国大陆)
export OLLAMA_ORIGINS=https://ollama.aidanlun.com
ollama pull glm-4.7-flash

Q: 显存不足?

bash
# 限制模型使用的显存
OLLAMA_MAX_VRAM=4GB ollama serve

Q: 如何删除模型?

bash
ollama rm glm-4.7-flash

基于 OpenClaw 开源项目