OpenClaw + 阿里云 Coding Plan 安装配置

相关博客:

【保姆级教程】手把手教你安装OpenClaw并接入飞书,让AI在聊天软件里帮你干活-腾讯云开发者社区-腾讯云

OpenClaw (Clawdbot) 教程 | 菜鸟教程

阿里云百炼 Coding Plan - AI 编码订阅计划 - 阿里云

【OpenClaw】启动报错 disconnected (1008): unauthorized: gateway token mismatch-CSDN博客

如何设置阿里云coding plan api:

OpenClaw(原 Clawdbot、Moltbot)-大模型服务平台百炼(Model Studio)-阿里云帮助中心

阿里云百炼 Coding Plan - AI 编码订阅计划 - 阿里云

部署过程

方法一:

使用管理员权限 powershell 一键安装(【保姆级教程】手把手教你安装OpenClaw并接入飞书,让AI在聊天软件里帮你干活-腾讯云开发者社区-腾讯云),命令:

iwr -useb https://openclaw.ai/install.ps1 | iex

方法二:

一键安装报错:

PS C:\WINDOWS\system32> iwr -useb https://openclaw.ai/install.ps1 | iex
OpenClaw Installer
[OK] Windows detected
[OK] Node.js v24.14.0 found
[*] Installing OpenClaw (openclaw@latest)...
node.exe : npm error code ENOENT
所在位置 行:1 字符: 1
& "C:\Program Files\nodejs/node.exe" "C:\Program Files\nodejs/node_mo ...
+ CategoryInfo          : NotSpecified: (npm error code ENOENT:String) [], RemoteException
  + FullyQualifiedErrorId : NativeCommandError

报错分析:

  1. 路径与权限冲突:一键安装脚本(install.ps1)会调用 npm 将二进制文件解压到 C:\Program Files\nodejs 等系统级目录,极易因为 Windows 严格的权限控制而失败,同时脚本路径解析在 PowerShell 下存在 Bug(你可以看到报错里混用了斜杠和反斜杠 nodejs/node.exe)[1]。
  2. 安全软件拦截:Windows Defender 的“受控文件夹访问”有时会静默拦截 node.exe 的写入操作[1]。
  3. 官方兼容性提示:OpenClaw 官方及开发者表示,原生 Windows 环境下的安装“缺乏充分测试且容易出现问题”,他们强烈建议 Windows 用户使用 WSL2(Linux 子系统)来运行 OpenClaw[2]。

🛠️ 修复原生 Windows 安装(绕过脚本直接安装)

抛弃报错的 .ps1 脚本,手动调整 npm 的权限路径并在 CMD 下直接安装。

第 1 步:更改 npm 默认安装路径
为了避开 C:\Program Files 的权限限制,在 PowerShell 中执行以下命令,将全局路径改到你的用户文件夹:

npm config set prefix "C:\Users\(手动替换)\.npm-global"

第 2 步:清理报错残留缓存

npm cache clean --force

第 3 步:改用 CMD (命令提示符) 进行安装
根据社区反馈,PowerShell 的执行策略容易在执行 postinstall 时阻断进程。

  1. 关闭当前的 PowerShell。

  2. 点击 Windows 开始菜单,搜索 cmd,选择 “以管理员身份运行” 命令提示符。

  3. 在 cmd 中直接运行 npm 安装命令[1]:

    npm install -g openclaw
    

第 4 步:重启窗口验证

  1. 彻底关闭当前所有的 PowerShell 或 CMD 窗口。

  2. 重新打开一个新的管理员权限 CMD 窗口。

  3. 输入并运行:

    openclaw doctor
    

(注:如果提示“找不到 openclaw 命令”,请按下 Win + R 输入 sysdm.cpl,在“高级 -> 环境变量 -> 系统变量的 Path”中,手动添加 C:\Users(手动替换)\.npm-global 环境变量并重启 CMD)

只要路径填对了,这次系统就能准确找到刚才安装好的 OpenClaw 并开始它的自检流程了!

第 5 步:启动向导

安装完成后,直接执行初始化命令:

openclaw onboard

(注:如果提示“找不到 openclaw 命令”,请按下 Win + R 输入 sysdm.cpl,在“高级 -> 环境变量 -> 系统变量的 Path”中,手动添加 C:\Users(手动替换).npm-global 环境变量并重启 CMD)

配置阿里云coding plan api

  1. 打开文件~/.openclaw/openclaw.json。
  2. 复制以下内容到配置文件。将YOUR_API_KEY替换为Coding Plan 专属 API Key注意保留网关token

若需保留已有配置,请勿直接全量替换。如丢失网关token,运行 openclaw doctor --fix 命令自动修复。

"models": {
    "mode": "merge",
    "providers": {
      "bailian": {
        "baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
        "apiKey": "YOUR_API_KEY",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen3.5-plus",
            "name": "qwen3.5-plus",
            "reasoning": false,
            "input": [
              "text",
              "image"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 1000000,
            "maxTokens": 65536
          },
          {
            "id": "qwen3-max-2026-01-23",
            "name": "qwen3-max-2026-01-23",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 262144,
            "maxTokens": 65536
          },
          {
            "id": "qwen3-coder-next",
            "name": "qwen3-coder-next",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 262144,
            "maxTokens": 65536
          },
          {
            "id": "qwen3-coder-plus",
            "name": "qwen3-coder-plus",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 1000000,
            "maxTokens": 65536
          },
          {
            "id": "MiniMax-M2.5",
            "name": "MiniMax-M2.5",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 204800,
            "maxTokens": 131072
          },
          {
            "id": "glm-5",
            "name": "glm-5",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 202752,
            "maxTokens": 16384
          },
          {
            "id": "glm-4.7",
            "name": "glm-4.7",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 202752,
            "maxTokens": 16384
          },
          {
            "id": "kimi-k2.5",
            "name": "kimi-k2.5",
            "reasoning": false,
            "input": [
              "text",
              "image"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 262144,
            "maxTokens": 32768
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "bailian/qwen3.5-plus"
      },
      "models": {
        "bailian/qwen3.5-plus": {},
        "bailian/qwen3-max-2026-01-23": {},
        "bailian/qwen3-coder-next": {},
        "bailian/qwen3-coder-plus": {},
        "bailian/MiniMax-M2.5": {},
        "bailian/glm-5": {},
        "bailian/glm-4.7": {},
        "bailian/kimi-k2.5": {}
      }
    }
  },
  "gateway": {
    "mode": "local",
    "auth": {
      "mode": "token",
      "token": "YOUR_TOKEN"
    }
  }
  1. 保存文件并退出,运行以下命令来使配置生效。

    openclaw gateway restart
    
  2. 新开一个终端,运行以下命令。(保留服务终端)

    openclaw dashboard
    
  3. 在Web UI中进行对话。

切换模型

  • 在当前会话切换模型(临时有效)

    在终端输入openclaw tui,进入 TUI 界面,使用 /model <模型名称> 在当前会话中切换模型。

    /model qwen3-coder-next
    

    界面返回提示“model set to qwen3-coder-next” 即表示生效。

  • 切换默认模型(永久有效)

    如需在每次新会话中使用指定模型,修改 agents.defaults.model.primary 字段为目标模型。请参考修改配置文件

    {
        "agents": {
            "defaults": {
                "model": {
                    "primary": "bailian/qwen3.5-plus"
                }
            }
        }
    }
    
Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐