国内使用指南
OpenClaw 默认连接海外 AI API,国内用户需要做一些额外配置。本文提供完整的国内使用方案。
方案一:openclaw-cn 中文版(推荐)
社区维护的 openclaw-cn 专为国内用户优化:
bash
npm install -g openclaw-cn@latest
openclaw-cn onboard --install-daemon优势:
- 所有 GitHub 依赖已打包为 npm 包,支持淘宝镜像源
- CLI 和 Web 控制界面全部汉化
- 飞书渠道适配已完成
- 无需翻墙即可安装
使用淘宝镜像加速
bash
# 设置 npm 镜像
npm config set registry https://registry.npmmirror.com
# 然后安装
npm install -g openclaw-cn@latest方案二:使用国产模型(无需翻墙)
OpenClaw 兼容 OpenAI API 格式,国产模型大多提供兼容接口。
DeepSeek(推荐,性价比极高)
编辑 ~/.openclaw/openclaw.json:
json
{
"models": {
"providers": {
"deepseek": {
"baseUrl": "https://api.deepseek.com/v1",
"apiKey": "${DEEPSEEK_API_KEY}",
"api": "openai-completions",
"models": [
{
"id": "deepseek-chat",
"name": "DeepSeek Chat",
"reasoning": false,
"contextWindow": 128000
},
{
"id": "deepseek-reasoner",
"name": "DeepSeek Reasoner",
"reasoning": true,
"contextWindow": 128000
}
]
}
}
}
}在 ~/.openclaw/.env 中添加:
bash
DEEPSEEK_API_KEY=sk-xxx通义千问(阿里云百炼)
json
{
"models": {
"providers": {
"qwen": {
"baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
"apiKey": "${QWEN_API_KEY}",
"api": "openai-completions",
"models": [
{"id": "qwen-max", "name": "Qwen Max", "contextWindow": 128000},
{"id": "qwen-plus", "name": "Qwen Plus", "contextWindow": 128000},
{"id": "qwq-plus", "name": "QwQ Plus (推理)", "reasoning": true, "contextWindow": 128000}
]
}
}
}
}Moonshot (Kimi)
json
{
"models": {
"providers": {
"moonshot": {
"baseUrl": "https://api.moonshot.cn/v1",
"apiKey": "${MOONSHOT_API_KEY}",
"api": "openai-completions",
"models": [
{"id": "moonshot-v1-128k", "name": "Moonshot 128K", "contextWindow": 128000}
]
}
}
}
}智谱 GLM
json
{
"models": {
"providers": {
"zhipu": {
"baseUrl": "https://open.bigmodel.cn/api/paas/v4",
"apiKey": "${ZHIPU_API_KEY}",
"api": "openai-completions",
"models": [
{"id": "glm-4-plus", "name": "GLM-4 Plus", "contextWindow": 128000}
]
}
}
}
}国产模型对比
| 模型 | 价格 | Agent 能力 | 中文能力 | 推荐场景 |
|---|---|---|---|---|
| DeepSeek Chat | 极低 | 强 | 优秀 | 日常使用首选 |
| DeepSeek Reasoner | 低 | 极强 | 优秀 | 复杂推理任务 |
| 通义千问 Max | 中等 | 强 | 优秀 | 长文本处理 |
| Moonshot 128K | 中等 | 中等 | 优秀 | 超长上下文 |
| GLM-4 Plus | 中等 | 强 | 优秀 | 工具调用 |
方案三:通过代理访问 Claude
如果仍想使用 Claude(Agent 能力最强),可以通过 API 代理中转:
json
{
"models": {
"providers": {
"anthropic": {
"baseUrl": "https://your-proxy.example.com/api",
"apiKey": "your-proxy-key"
}
}
}
}常见代理方案:
- 自建 API 中转服务(如 Sub2API、One API)
- OpenRouter(
https://openrouter.ai/api/v1)
方案四:Ollama 本地模型(完全离线)
不需要任何 API,在本地运行开源模型:
bash
# 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 下载中文优化模型
ollama pull qwen2.5-coder:7b # 编程场景
ollama pull qwen2.5:14b # 通用对话
ollama pull deepseek-r1:8b # 推理场景
# 在 OpenClaw 中配置
openclaw models set ollama/qwen2.5-coder:7b硬件要求
- 7B 模型:8GB 内存
- 14B 模型:16GB 内存
- 32B 模型:32GB 内存 Apple Silicon Mac 运行效果最佳。
npm 安装加速
国内安装 OpenClaw 时 npm 下载可能很慢:
bash
# 临时使用淘宝镜像
npm install -g openclaw@latest --registry=https://registry.npmmirror.com
# 或永久设置
npm config set registry https://registry.npmmirror.com中文社区资源
| 资源 | 链接 | 说明 |
|---|---|---|
| openclaw-cn | GitHub | 中文优化版 |
| 中文入门教程 | cn-sec.com | 系列教程 |
| 模型配置指南 | blog.laozhang.ai | 含国产模型 |