本指南帮助已安装 OpenClaw 的用户快速将 LLM API 替换为国内版本,支持 MiniMax 和智谱(GLM)两个主流国内 API。
目录
一、前置条件检查
二、备份与修改配置
三、配置示例
四、重启与验证
五、常见问题
一、前置条件检查
1.1 检查 OpenClaw 是否已安装
# 检查 openclaw 是否在 PATH 中
which openclaw
# 检查 openclaw 是否正在运行
ps aux | grep openclaw
# 查看已安装版本
openclaw --version
预期输出示例:
/home/username/.npm-global/bin/openclaw
spoto 26852 0.0 0.1 1012732 57572 ? Ssl 13:57 0:00 openclaw
OpenClaw version: 2026.1.24-3
1.2 如果未安装 OpenClaw
如果系统未安装 OpenClaw,请使用官方安装脚本:
# 官方一键安装脚本
curl -fsSL https://molt.bot/install.sh | bash
# 安装完成后运行初始化向导
openclaw onboard --install-daemon
1.3 检查 Node.js 版本
node --version
要求: Node.js ≥ 22
1.4 查找配置文件位置
OpenClaw 的主配置文件位于:
~/.openclaw/openclaw.json
查看当前配置:
cat ~/.openclaw/openclaw.json
二、备份与修改配置
2.1 备份现有配置
在修改之前,强烈建议备份配置文件:
cp ~/.openclaw/openclaw.json ~/.openclaw/openclaw.json.backup
2.2 获取 API Key
根据你要使用的 API 服务,前往对应平台获取 API Key:
服务商 控制台地址 API Key 获取位置
MiniMax https://www.minimaxi.com 控制台 → API Keys
智谱 AI https://bigmodel.cn 控制台 → API Keys
2.3 编辑配置文件
使用文本编辑器打开配置文件:
nano ~/.openclaw/openclaw.json
# 或
vim ~/.openclaw/openclaw.json
在配置文件中添加或修改 models.providers 部分,具体配置见下一节。
三、配置示例
3.1 MiniMax 国内版配置
MiniMax 国内版 API 配置适用于中国区域用户,提供 M2.1 等高质量模型。
API 端点: https://api.minimaxi.com/anthropic
完整配置示例:
{
"models": {
"mode": "merge",
"providers": {
"minimax-cn": {
"baseUrl": "https://api.minimaxi.com/anthropic",
"apiKey": "YOUR_MINIMAX_API_KEY_HERE",
"api": "anthropic-messages",
"models": [
{
"id": "MiniMax-M2.1",
"name": "MiniMax M2.1 (China)",
"reasoning": true,
"input": ["text"],
"cost": {
"input": 0.3,
"output": 1.2,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 204800,
"maxTokens": 131072
}
]
}
}
}
}
环境变量方式(推荐):
在 ~/.bashrc 或 ~/.zshrc 中添加:
export MINIMAX_CN_API_KEY="your_api_key_here"
配置文件中使用:
{
"models": {
"mode": "merge",
"providers": {
"minimax-cn": {
"baseUrl": "https://api.minimaxi.com/anthropic",
"apiKey": "${MINIMAX_CN_API_KEY}",
"api": "anthropic-messages",
"models": [
{
"id": "MiniMax-M2.1",
"name": "MiniMax M2.1 (China)",
"reasoning": true,
"input": ["text"],
"contextWindow": 204800,
"maxTokens": 131072
}
]
}
}
}
}
3.2 智谱(GLM)配置
智谱 AI(Zhipu)提供 GLM 系列模型,支持编程和对话任务。
API 端点: https://open.bigmodel.cn/api/anthropic
完整配置示例:
{
"models": {
"mode": "merge",
"providers": {
"zhipu-cn": {
"baseUrl": "https://open.bigmodel.cn/api/anthropic",
"apiKey": "YOUR_ZHIPU_API_KEY_HERE",
"api": "anthropic-messages",
"models": [
{
"id": "glm-4.7",
"name": "GLM-4.7 (China)",
"reasoning": true,
"input": ["text"],
"cost": {
"input": 0.1,
"output": 0.1,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 200000,
"maxTokens": 8192
}
]
}
}
}
}
3.3 多 API 同时配置
如果需要同时配置多个国内 API,可以在 providers 中添加多个条目:
{
"models": {
"mode": "merge",
"providers": {
"minimax-cn": {
"baseUrl": "https://api.minimaxi.com/anthropic",
"apiKey": "YOUR_MINIMAX_API_KEY",
"api": "anthropic-messages",
"models": [
{
"id": "MiniMax-M2.1",
"name": "MiniMax M2.1",
"reasoning": true,
"input": ["text"],
"contextWindow": 204800,
"maxTokens": 131072
}
]
},
"zhipu-cn": {
"baseUrl": "https://open.bigmodel.cn/api/anthropic",
"apiKey": "YOUR_ZHIPU_API_KEY",
"api": "anthropic-messages",
"models": [
{
"id": "glm-4.7",
"name": "GLM-4.7",
"reasoning": true,
"input": ["text"],
"contextWindow": 200000,
"maxTokens": 8192
}
]
}
}
}
}
3.4 设置默认模型
在 agents.defaults.model.primary 中设置默认使用的模型:
{
"agents": {
"defaults": {
"model": {
"primary": "minimax-cn/MiniMax-M2.1"
},
"models": {
"minimax-cn/MiniMax-M2.1": {}
}
}
},
"models": {
"mode": "merge",
"providers": {
"minimax-cn": {
"baseUrl": "https://api.minimaxi.com/anthropic",
"apiKey": "YOUR_MINIMAX_API_KEY",
"api": "anthropic-messages",
"models": [
{
"id": "MiniMax-M2.1",
"name": "MiniMax M2.1",
"reasoning": true,
"input": ["text"],
"contextWindow": 204800,
"maxTokens": 131072
}
]
}
}
}
}
四、重启与验证
4.1 重启 Gateway
配置修改后,需要重启 Gateway 使配置生效:
openclaw gateway restart
预期输出:
Restarted systemd service: openclaw-gateway.service
4.2 验证模型列表
检查配置是否成功加载:
openclaw models list
MiniMax 配置成功输出示例:
Model Input Ctx Local Auth Tags
minimax-cn/MiniMax-M2.1 text 200k no yes default,configured
智谱配置成功输出示例:
Model Input Ctx Local Auth Tags
zhipu-cn/glm-4.7 text 200k no yes configured
4.3 检查 Gateway 状态
openclaw gateway status
确认 Gateway 正常运行(状态为 running 或 active)。
4.4 测试模型响应
openclaw agent --message "Hello, are you working?" --session-id main
预期: 模型应返回正常的回复,说明 API 配置成功。
4.5 验证 API Key 有效性(可选)
使用 curl 命令直接测试 API 连接:
MiniMax:
curl -X POST "https://api.minimaxi.com/anthropic/v1/messages" \
-H "Authorization: Bearer YOUR_MINIMAX_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "MiniMax-M2.1",
"max_tokens": 1024,
"messages": [{"role": "user", "content": "Hello"}]
}'
智谱:
curl -X POST "https://open.bigmodel.cn/api/anthropic/v1/messages" \
-H "Authorization: Bearer YOUR_ZHIPU_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "glm-4.7",
"messages": [{"role": "user", "content": "Hello"}]
}'
成功响应: 返回包含模型回复的 JSON 数据 失败响应: 返回错误信息,如认证失败
五、常见问题
Q1: MissingEnvVarError - 缺少环境变量
错误信息:
MissingEnvVarError: Missing env var "MINIMAX_CN_API_KEY"
解决方案:
检查环境变量是否已设置:
echo $MINIMAX_CN_API_KEY
如果为空,在 ~/.bashrc 或 ~/.zshrc 中添加:
export MINIMAX_CN_API_KEY="your_api_key"
使配置生效:
source ~/.bashrc
# 或
source ~/.zshrc
或直接在配置文件中使用 API key 值(安全性较低)
Q2: Gateway 启动失败
错误信息: 配置文件加载失败或 Gateway 无法启动
解决方案:
检查配置文件语法:
cat ~/.openclaw/openclaw.json | jq
检查日志:
tail -f ~/.openclaw/logs/gateway.log
cat ~/.openclaw/logs/gateway.err.log
使用备份恢复配置:
cp ~/.openclaw/openclaw.json.backup ~/.openclaw/openclaw.json
重启 Gateway:
openclaw gateway stop
openclaw gateway start
Q3: 模型未显示在列表中
问题: 运行 openclaw models list 但看不到配置的模型
解决方案:
检查 JSON 语法是否正确
确认 provider 名称与模型引用一致
确认 API key 有效且有访问权限
重启 Gateway:
openclaw gateway restart
Q4: 认证失败 (HTTP 401)
错误信息:
HTTP 401 authentication_error: login fail
解决方案:
验证 API key 格式是否正确
确认 API key 未过期
检查 API key 是否有访问所用 API 的权限
重新生成 API key(如有必要)
Q5: 配置文件路径错误
问题: 找不到配置文件或配置未生效
解决方案:
确认配置文件位置:
ls -la ~/.openclaw/
如果配置文件不存在,运行初始化向导:
openclaw onboard
手动创建配置文件:
mkdir -p ~/.openclaw
nano ~/.openclaw/openclaw.json
Q6: 多个 Provider 如何切换使用
在对话中使用 /model 命令切换模型:
/model minimax-cn/MiniMax-M2.1
# 或
/model zhipu-cn/glm-4.7
或在配置文件中设置默认模型:
{
"agents": {
"defaults": {
"model": {
"primary": "zhipu-cn/glm-4.7"
}
}
}
}
附录
配置文件参数说明
参数 说明 示例值
mode provider 合并模式 merge 或 replace
baseUrl API 基础 URL https://api.minimaxi.com/anthropic
apiKey API 密钥 sk-xxx... 或 ${ENV_VAR}
api API 模式 anthropic-messages
models[].id 模型唯一标识符 MiniMax-M2.1
models[].name 模型显示名称 MiniMax M2.1
models[].reasoning 是否支持推理 true 或 false
models[].contextWindow 上下文窗口大小 204800
models[].maxTokens 最大输出 tokens 131072
支持的模型列表
服务商 模型 ID 上下文窗口 特性
MiniMax MiniMax-M2.1 200k 支持推理
智谱 glm-4.7 200k 支持推理
相关链接
OpenClaw 官方文档
MiniMax 官网
智谱 AI 官网
OpenClaw GitHub
版本信息
文档版本: 1.0
创建日期: 2026-01-29
支持的 OpenClaw 版本: 2026.1.24-3+
支持的 API: MiniMax 国内版、智谱 GLM
注意: 请妥善保管您的 API Key,不要将其提交到版本控制系统或公开分享。
文章评论