Skip to content

国内使用指南

OpenClaw 默认连接海外 AI API,国内用户需要做一些额外配置。本文提供完整的国内使用方案。

方案一:openclaw-cn 中文版(推荐)

社区维护的 openclaw-cn 专为国内用户优化:

bash
npm install -g openclaw-cn@latest
openclaw-cn onboard --install-daemon

优势:

  • 所有 GitHub 依赖已打包为 npm 包,支持淘宝镜像源
  • CLI 和 Web 控制界面全部汉化
  • 飞书渠道适配已完成
  • 无需翻墙即可安装

使用淘宝镜像加速

bash
# 设置 npm 镜像
npm config set registry https://registry.npmmirror.com

# 然后安装
npm install -g openclaw-cn@latest

方案二:使用国产模型(无需翻墙)

OpenClaw 兼容 OpenAI API 格式,国产模型大多提供兼容接口。

DeepSeek(推荐,性价比极高)

编辑 ~/.openclaw/openclaw.json

json
{
  "models": {
    "providers": {
      "deepseek": {
        "baseUrl": "https://api.deepseek.com/v1",
        "apiKey": "${DEEPSEEK_API_KEY}",
        "api": "openai-completions",
        "models": [
          {
            "id": "deepseek-chat",
            "name": "DeepSeek Chat",
            "reasoning": false,
            "contextWindow": 128000
          },
          {
            "id": "deepseek-reasoner",
            "name": "DeepSeek Reasoner",
            "reasoning": true,
            "contextWindow": 128000
          }
        ]
      }
    }
  }
}

~/.openclaw/.env 中添加:

bash
DEEPSEEK_API_KEY=sk-xxx

通义千问(阿里云百炼)

json
{
  "models": {
    "providers": {
      "qwen": {
        "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
        "apiKey": "${QWEN_API_KEY}",
        "api": "openai-completions",
        "models": [
          {"id": "qwen-max", "name": "Qwen Max", "contextWindow": 128000},
          {"id": "qwen-plus", "name": "Qwen Plus", "contextWindow": 128000},
          {"id": "qwq-plus", "name": "QwQ Plus (推理)", "reasoning": true, "contextWindow": 128000}
        ]
      }
    }
  }
}

Moonshot (Kimi)

json
{
  "models": {
    "providers": {
      "moonshot": {
        "baseUrl": "https://api.moonshot.cn/v1",
        "apiKey": "${MOONSHOT_API_KEY}",
        "api": "openai-completions",
        "models": [
          {"id": "moonshot-v1-128k", "name": "Moonshot 128K", "contextWindow": 128000}
        ]
      }
    }
  }
}

智谱 GLM

json
{
  "models": {
    "providers": {
      "zhipu": {
        "baseUrl": "https://open.bigmodel.cn/api/paas/v4",
        "apiKey": "${ZHIPU_API_KEY}",
        "api": "openai-completions",
        "models": [
          {"id": "glm-4-plus", "name": "GLM-4 Plus", "contextWindow": 128000}
        ]
      }
    }
  }
}

国产模型对比

模型价格Agent 能力中文能力推荐场景
DeepSeek Chat极低优秀日常使用首选
DeepSeek Reasoner极强优秀复杂推理任务
通义千问 Max中等优秀长文本处理
Moonshot 128K中等中等优秀超长上下文
GLM-4 Plus中等优秀工具调用

方案三:通过代理访问 Claude

如果仍想使用 Claude(Agent 能力最强),可以通过 API 代理中转:

json
{
  "models": {
    "providers": {
      "anthropic": {
        "baseUrl": "https://your-proxy.example.com/api",
        "apiKey": "your-proxy-key"
      }
    }
  }
}

常见代理方案:

  • 自建 API 中转服务(如 Sub2API、One API)
  • OpenRouter(https://openrouter.ai/api/v1

方案四:Ollama 本地模型(完全离线)

不需要任何 API,在本地运行开源模型:

bash
# 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 下载中文优化模型
ollama pull qwen2.5-coder:7b    # 编程场景
ollama pull qwen2.5:14b          # 通用对话
ollama pull deepseek-r1:8b       # 推理场景

# 在 OpenClaw 中配置
openclaw models set ollama/qwen2.5-coder:7b

硬件要求

  • 7B 模型:8GB 内存
  • 14B 模型:16GB 内存
  • 32B 模型:32GB 内存 Apple Silicon Mac 运行效果最佳。

npm 安装加速

国内安装 OpenClaw 时 npm 下载可能很慢:

bash
# 临时使用淘宝镜像
npm install -g openclaw@latest --registry=https://registry.npmmirror.com

# 或永久设置
npm config set registry https://registry.npmmirror.com

中文社区资源

资源链接说明
openclaw-cnGitHub中文优化版
中文入门教程cn-sec.com系列教程
模型配置指南blog.laozhang.ai含国产模型

OpenClaw 中文教程 - 社区项目