晨涧云文档

首页

目录

OpenClaw本地Ollama模型调用实测

OpenClaw支持调用Ollama模型,配置相当简单,运行起来也很流畅
本文以晨涧云OpenClaw云主机/云容器,Ollama云主机为例,介绍详细配置流程

创建Ollama云主机

晨涧云的Ollama Deepseek 云主机,默认已经部署DeepSeek 、Qwen、Gemma4等热门模型
1、选择镜像 DeepSeek Ollama
image.png#360px #208px
2、创建实例
image.png#764px #410px
3、验证ollama api连接
创建完成之后,实例运行中,可以打开预留端口,通过IP:外网端口 ,浏览器访问ollama api
image.png#749px #331px

浏览器输出如下图所示
image.png#816px #231px

查看已经安装的模型方法
1、查看所有本地模型,Ollama 提供API:GET /api/tags
2、命令行运行 ollama list

image.png#507px #270px

创建OpenClaw云主机或云容器

OpenClaw云容器创建和使用参考 : OpenClaw云容器
OpenClaw云主机创建和使用参考:OpenClaw镜像 - Ubuntu# OpenClaw镜像 - Windows

 

修改OopenClaw默认模型配置

创建完成之后修改openclaw.json 配置, baseUrl和apiKey,然后选择合适的默认模型(agents.defaults.model.primary)
配置完成示例

"models": {
    "mode": "merge",
    "providers": {
      "ollama-remote": {
        "baseUrl": "http://IP:预留外网端口/v1",
        "apiKey": "ollama-local-dummy-key",
        "api": "openai-completions",
        "models": [
          {
            "id": "gemma4:e2b",
            "name": "gemma4:e2b",
            "api": "openai-completions",
            "reasoning": true,
            "input": [
              "text"
            ],
            ....此处省略
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama-remote/gemma4:e2b"
      },
      "models": {
        "ollama-remote/gemma4:e2b": {
          "alias": "ollama-remote gemma4:e2b"
        }
      },
      "workspace": "/home/linux/.openclaw/workspace",
      "compaction": {
        "mode": "safeguard"
      }
    }
  },

配置完成 重启OpenClaw服务
报auth错误 需要创建验证文件 内容如下 ~/.openclaw/agents/main/agent/auth-profiles.json

{
  "providers": {
    "ollama-remote": {
      "apiKey": "ollama-local-dummy-key",
      "baseUrl": "http://IP:预留外网端口",
      "type": "ollama"
    }
  }
}

命令行输入验证配置模型是否成功
openclaw models list --provider ollama-remote

打开OpenClaw聊天窗口测试服务,实测响应速度非首次加载响应很快

image.png#745px #401px