当别人还在和ChatGPT“聊天”时,你已经拥有了一个能 24小时写代码、发邮件、管理文件的全职“数字员工”。

如果你是一名关注AI技术的开发者,那么最近开源社区最火爆的项目之一当属 OpenClaw。这个原名 Clawdbot 的项目,在2026年初凭借“The AI that actually does things”(真正做事的AI)的口号,GitHub星标数已突破18.6万,成为全球增速最快的开源项目之一。

但很多读者可能还在疑惑:它和Claude、GPT这些聊天机器人有什么区别?
区别在于:OpenClaw 不只是“建议”,而是“执行”。

它可以在获得授权后,直接操控你的电脑或服务器——读写文件、运行终端命令、操控浏览器、管理邮件日程,甚至通过 WhatsApp、Telegram 或飞书远程指挥它干活。

然而,直接在本地运行这样一个拥有系统级权限的AI代理,可能会弄乱你的开发环境,也存在一定的安全风险。今天,我们就来介绍一种更安全、更稳定、更便于维护的部署方式——使用 Docker Compose 将 OpenClaw 部署在 Windows、macOS 或 Linux 系统上,让它真正成为你 24 小时在线的“AI打工人”。


为什么选择 Docker 部署 OpenClaw?

在部署之前,我们要明确一个核心观点:对于这种需要长期运行且权限较高的AI代理,Docker 是最佳的“保镖”和“管家”。

  1. 安全隔离(沙箱机制):OpenClaw 需要读写文件和执行命令。通过 Docker 容器运行,可以将其与宿主机的核心系统隔离开来,避免因AI误操作或恶意指令导致系统崩溃,这是生产环境部署的首要安全实践

  2. 环境一致性:无论你的服务器是 Windows、macOS 还是 Linux,Docker 都能提供一致的运行环境。你再也不用担心因为Node.js版本不匹配或依赖缺失而导致的部署失败了。

  3. 简化运维:升级 OpenClaw 只需要拉取新的镜像并重启容器,一条命令即可完成版本迭代。结合 restart: always 策略,还能保证 AI 助手在系统重启后自动复活。


全平台前期准备

💻 系统与硬件要求

OpenClaw 对硬件的门槛非常友好,绝大多数现代电脑都能流畅运行:

  • CPU:≥2核

  • 内存:≥4GB(推荐8GB,处理复杂任务更流畅)

  • 磁盘:剩余空间≥10GB

  • 操作系统:Windows 10/11、macOS 12+、Linux(Ubuntu 20.04+ 或 CentOS 8+)

🔑 凭证准备

  • 一个 API Key:OpenClaw 本身不带“脑子”,它需要接入大模型的“大脑”。你需要提前准备好 Anthropic (Claude)、OpenAI 或阿里云百炼(通义千问)等平台的 API Key。

  • (可选)IM 机器人 Token:如果你想通过 Telegram、飞书或 WhatsApp 远程指挥 AI,需要提前申请对应平台的 Bot Token。


📥 各平台 Docker 环境搭建

Windows 用户(推荐 WSL2 模式)

1. 启用 WSL2
打开 PowerShell(管理员身份),输入:

wsl --install

此命令会安装 Ubuntu 子系统并启用 WSL2。安装完成后重启电脑

2. 安装 Docker Desktop

  • 访问 Docker 官网 下载 Windows 版安装包

  • 安装时确保勾选 "Use WSL 2 instead of Hyper-V"

  • 安装完成后,打开 Docker Desktop → Settings → Resources → WSL Integration,确保你的 Ubuntu 发行版开关处于 ON 状态

macOS 用户(Intel 芯片 / Apple Silicon 通用)

1. 安装 Homebrew(可选但推荐)
在终端中执行:

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

2. 安装 Docker Desktop

  • 访问 Docker 官网 下载 Mac with Apple Silicon 或 Mac with Intel Chip 对应版本

  • 将 Docker.app 拖入 Applications 文件夹

  • 打开 Docker.app,等待状态栏图标变为绿色(Running)

3. 验证安装

docker --version
docker compose version

Linux 用户(Ubuntu/Debian 为例)

一键安装脚本(推荐)

bash <(curl -sSL https://linuxmirrors.cn/docker.sh)

启动 Docker 服务

sudo systemctl start docker
sudo systemctl enable docker

参考 : https://mdoc.cc/mliev/1ms/v1.0.0/5


🚀 手把手 Docker Compose 部署实战

无论你使用什么系统,接下来的步骤完全一致。我们将采用生产级的配置思路,将配置数据持久化到本地。

步骤 1:创建项目目录

打开你的终端(Windows 用户请打开 Ubuntu WSL 终端,macOS/Linux 用户打开标准终端):

mkdir -p ~/openclaw/data
cd ~/openclaw

步骤 2:编写 docker-compose.yml

使用 nano 或 vim 创建配置文件:

nano docker-compose.yml

粘贴以下内容:

version: '3.8'

services:
  openclaw-gateway:
    # 使用 GitHub Container Registry 的官方镜像
    image: ghcr.1ms.run/openclaw/openclaw:latest
    container_name: openclaw-gateway
    restart: always
    ports:
      - "18789:18789"  # Web 控制台端口
    volumes:
      # 将配置和数据持久化到宿主机
      - ~/openclaw/data:/home/node/.openclaw
      # 【Windows 用户特别注意】如果需要 AI 操作 Windows 文件
      # - /mnt/c/Users/你的用户名/Documents:/home/node/workspace/windows_docs
      #
      # 【macOS 用户特别注意】如果需要 AI 操作 Mac 文件
      # - ~/Documents:/home/node/workspace/mac_docs
    environment:
      - NODE_ENV=production
    # 健康检查
    healthcheck:
      test: ["CMD", "node", "dist/healthcheck.js"]
      interval: 30s
      timeout: 10s
      retries: 3
    # 资源限制
    deploy:
      resources:
        limits:
          memory: 4G
        reservations:
          memory: 1G

步骤 3:配置模型 API 密钥

创建 .env 文件存储敏感信息:

nano .env

添加你的密钥(根据你选择的模型提供商):

# 必填:生成一个随机的网关令牌用于登录控制台
OPENCLAW_GATEWAY_TOKEN=你的_随机_复杂_令牌_这里

# 选填一:Anthropic (Claude)
ANTHROPIC_API_KEY=sk-ant-你的API密钥

# 选填二:OpenAI
OPENAI_API_KEY=sk-你的API密钥

# 选填三:阿里云百炼 (DashScope)
DASHSCOPE_API_KEY=sk-你的阿里云API密钥

安全提示:保存后执行 chmod 600 .env 限制文件权限(Windows WSL 环境同样适用)。

步骤 4:启动 OpenClaw

docker compose up -d

查看日志确认运行状态:

docker compose logs -f openclaw-gateway

如果看到类似 [gateway] listening on ws://0.0.0.0:18789 的日志,说明启动成功。

步骤 5:访问 Web 控制台

Windows 用户

  • 打开浏览器,访问 http://localhost:18789

  • 输入 .env 中设置的 OPENCLAW_GATEWAY_TOKEN 即可登录

macOS/Linux 用户

  • 同样访问 http://localhost:18789,输入令牌登录

步骤 6:配置模型上下文长度(重要!)

首次登录后,点击左侧菜单 Config → 右上角切换到 Raw 编辑模式。找到模型配置部分,确保 contextWindow 的值≥16000,否则聊天时会报错:

{
  "models": {
    "providers": {
      "anthropic": {
        "models": [
          {
            "id": "claude-3-7-sonnet-20260219",
            "contextWindow": 200000  // 改为≥16000
          }
        ]
      }
    }
  }
}

🪟 Windows 专属优化:让 AI 访问你的 C 盘文件

如果你想让 OpenClaw 操作 Windows 本地的文件(比如整理“桌面”或“文档”文件夹),需要挂载 Windows 路径到容器内。

  1. 找到你的 Windows 用户目录在 WSL 中的路径
    在 WSL 终端中,你的 C 盘挂载在 /mnt/c/ 下。例如你的 Windows 用户名是 Eric,桌面路径就是:

    /mnt/c/Users/Eric/Desktop

  2. 修改 docker-compose.yml,在 volumes 部分添加挂载:

    volumes:
      - ~/openclaw/data:/home/node/.openclaw
      - /mnt/c/Users/Eric/Desktop:/home/node/workspace/desktop  # AI 可读写你的桌面
      - /mnt/c/Users/Eric/Documents:/home/node/workspace/documents

  3. 重启容器

    docker compose down
    docker compose up -d
  4. 在飞书中测试
    发送指令:“帮我把桌面上的所有图片文件移动到 workspace/documents/照片 文件夹里”。


🍏 macOS 专属优化:让 AI 操作你的 Mac

方案 A:挂载 Mac 文件夹到容器

在 docker-compose.yml 中添加挂载:

yaml

volumes:
  - ~/openclaw/data:/home/node/.openclaw
  - ~/Documents:/home/node/workspace/documents
  - ~/Desktop:/home/node/workspace/desktop

方案 B:使用 macOS 原生运行(不通过 Docker)

如果你希望 OpenClaw 能直接调用 macOS 的原生应用(如 AppleScript 控制日历、邮件),可以考虑不使用 Docker,而是通过官方安装器直接在 macOS 上运行:

bash

# 使用官方安装脚本
curl -fsSL https://openclaw.ai/install.sh | bash

# 运行配置向导
openclaw onboard --install-daemon

# 打开控制台
openclaw dashboard

注意:此方式权限更高,务必遵循“最小权限原则”,建议为 OpenClaw 创建独立的 macOS 用户账户运行。


🤖 集成聊天软件:随时随地指挥 AI

飞书集成(适合国内用户)

  1. 创建飞书应用:访问 飞书开放平台,创建企业内部应用,开启机器人能力。

  2. 开启 WebSocket 模式

    • 进入“事件与回调”,选择 使用长连接接收事件

    • 添加事件 im.message.receive_v1

  3. 安装飞书插件

    bash

    # 进入容器
    docker exec -it openclaw-gateway bash
    
    # 启用飞书插件
    openclaw plugin enable feishu
    
    # 配置飞书参数(替换为你的 App ID 和 App Secret)
    openclaw config set feishu.app_id "你的飞书AppID"
    openclaw config set feishu.app_secret "你的飞书AppSecret"
    
    # 重启服务
    openclaw gateway restart
    exit
  4. 发布应用:在飞书开发者后台创建版本并发布。之后在飞书群聊中 @你的机器人,它就能响应指令了。


🎯 实战演示:让 AI 真正干点活儿

场景 1:文件整理

在飞书发送:

“帮我把桌面上所有 .pdf 和 .docx 文件移动到 工作文档 文件夹里,并按日期重命名”

场景 2:代码编写

“在当前项目目录下创建一个 Python 脚本,读取 data.csv 文件,计算每列平均值,保存到 result.txt

场景 3:定时任务

“每天下午 6 点,提醒我写日报,并自动统计今天修改过的代码文件数量”


⚠️ 避坑指南与安全提醒

常见问题排查

问题现象 可能原因 解决方案
访问 http://localhost:18789 报错 Token 未配置或配置错误 检查 .env 文件中的 OPENCLAW_GATEWAY_TOKEN,重启容器
聊天一直转圈,无响应 模型上下文窗口过小 修改 contextWindow ≥16000
飞书机器人无响应 插件未启用或配置错误 docker exec 进入容器,运行 openclaw plugin list 确认插件状态
容器启动失败,端口冲突 18789 端口被占用 修改 docker-compose.yml 中的映射端口,如 "18790:18789"

安全红线

  1. 最小权限原则:只挂载必要的文件夹,不要把整个 /mnt/c/ 都挂载进去。

  2. 独立用户运行:在 macOS/Linux 上,建议为 OpenClaw 创建独立的系统用户,避免使用 root 权限。

  3. 外网访问保护:如果要从公网访问控制台,务必使用反向代理配置 HTTPS(如 Caddy、Nginx),不要直接暴露 18789 端口。

  4. 定期审计日志:OpenClaw 会记录所有敏感指令,定期查看 ~/openclaw/data/logs/audit.log


总结

通过 Docker Compose,我们成功在 Windows、macOS 和 Linux 上部署了一个 安全、隔离、持久化 的 OpenClaw 实例。无论你使用什么操作系统,都能拥有一个 24 小时在线的 AI 打工人。

从今天起,把那些繁琐的日志检查、文件整理、代码测试,都交给你的“AI 龙虾”吧。你要做的,是专注于更具创造性的工作。

现在,去给你的 AI 打工人布置第一个任务吧!比如:“帮我分析一下本月的服务器日志,找出异常流量,并生成一份摘要报告。”

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐