3. linux安装openclaw
勾选。
一、环境需求
在开始之前,确认你有以下东西:
- • 一台 Linux 服务器(Ubuntu 22.04/24.04、Debian 12、CentOS Stream 9 等主流发行版都行)
- • SSH 访问权限(root 或有 sudo 权限的用户)
- • 一个 AI 模型的 API Key(OpenAI、Anthropic Claude、Google Gemini、DeepSeek 等,任选一个)
服务器配置建议:最低 1 核 1G 内存就能跑,推荐 2 核 2G。OpenClaw 本身很轻量,主要吃内存的是 Node.js 运行时。
二、部署OpenClaw
更新软件:
# 1. 更新系统包列表
sudo apt update && sudo apt upgrade -y
# 2. 安装编译工具和基础依赖(Node 编译必需)
sudo apt install -y gcc g++ make cmake python3 git curl
1.脚本部署
macOS / Linux / WSL2
curl -fsSL https://clawdbot.org.cn/install.sh | bash
Windows(PowerShell,管理员运行)
iwr -useb https://openclaw.ai/install.ps1 | iex
脚本会自动完成:
-
检测并安装 Node 22+
-
全局安装 OpenClaw CLI
-
启动引导配置向导(脚本执行完成后会进入引导配置,先ctrl+c退出,稍后进入配置)
2.安装 Node 22+ 并自行管理安装过程
更新系统并安装基础依赖
# 1. 更新系统包列表
sudo apt update && sudo apt upgrade -y
# 2. 安装编译工具和基础依赖(Node 编译必需)
sudo apt install -y gcc g++ make cmake python3 git curl
安装 Node.js 22+(OpenClaw 要求版本)
# 1. 添加 NodeSource 22 源(自动适配 Ubuntu 版本)
curl -o- https://gitee.com/RubyMetric/nvm-cn/raw/main/install.sh | bash
source ~/.bashrc
# 2. 安装 Node.js 22(自动包含 npm)
nvm install 22
# 3. 验证版本(需显示 v22.x.x,否则安装失败)
node -v
npm -v
全局安装 OpenClaw(核心步骤)
# 1. 全局安装 OpenClaw 最新版(加 sudo 避免权限问题)
sudo npm install -g openclaw@latest
# 2. 验证安装(显示版本号即成功)
openclaw -v
进入引导配置,先ctrl+c退出,稍后进入配置
三、配置ollama
Ollama 特殊性:本地运行的 Ollama 服务本身不需要任何 API Key 就能访问(默认地址 http://localhost:11434)。
Ollama 不需要真 API Key,但 OpenClaw 必须填一个非空值。
openclaw config set models.providers.ollama.apiKey "ollama-local"
配置 Ollama 地址
设置 baseUrl(把 IP 换成你自己的)
openclaw config set models.providers.ollama.baseUrl "http://10.132.47.63:11434/v1"
设置默认模型
openclaw config set agents.defaults.model.primary "ollama/qwen3.5:9b"
重启网关生效
openclaw gateway restart
验证
openclaw models list
openclaw gateway status
四、初始化配置并启动
# 1. 启动配置向导(自动安装守护进程,无需额外参数)
openclaw onboard --install-daemon
# 2. 检查环境是否正常(排查配置/依赖问题)
openclaw doctor
# 3. 启动 OpenClaw 网关(指定端口,方便访问)
openclaw gateway --port 18789 --verbose
配置向导内容解释以及选择(基于本地部署ollama)
1:
I understand this is personal-by-default and shared/multi-user use requires lock-down. Continue?
│ ○ Yes / ● No
🛡️我理解 OpenClaw 默认是个人使用场景配置,若用于共享 / 多用户环境,必须先做安全加固。是否继续?
OpenClaw 是一个带工具调用能力的 AI 代理,默认设计为单人可信操作:
- 只有你一个人能和它交互、触发命令 / 文件操作
- 一旦变成多用户 / 共享场景(比如多人通过飞书 / 网页访问同一个实例),所有用户会共享同一套工具权限
- 恶意用户可能通过构造危险 Prompt,诱导代理执行删库、泄露密钥等不安全操作
| 选项 | 含义 | 适用场景 | 风险提示 |
|---|---|---|---|
| Yes | 确认接受默认配置,继续启动 OpenClaw | 你是唯一使用者(个人服务器 / 本地环境),不会让其他人直接访问这个代理实例 | 仅适合个人使用,多用户场景必须额外做安全加固 |
| No | 拒绝当前配置,中止启动 | 你计划将 OpenClaw 用于共享 / 多用户环境,或对安全风险不确定 | 避免在未做安全加固的情况下暴露到多用户场景 |
选择:选择Yes 键盘方向←回车确认
2:
◆ Onboarding mode
│ ● QuickStart (Configure details later via openclaw configure.)
│ ○ Manual
🚀这是 OpenClaw 首次启动时的初始化配置模式选择,用来决定你后续的配置流程。
| 选项 | 含义 | 适用场景 | 优点 | 缺点 |
|---|---|---|---|---|
| QuickStart(快速启动) | 自动生成一套最小可用配置,跳过复杂的手动设置,后续可以用 openclaw configure 命令精细调整 |
✅ 个人快速体验✅ 不想一开始就纠结复杂配置✅ 先跑起来再优化 | 启动极快,一键完成基础配置,马上能用 | 配置是通用模板,需要后续手动调整细节 |
| Manual(手动配置) | 引导你一步步填写所有核心配置项(如模型接入、工具权限、消息平台等) | ✅ 生产环境部署✅ 多用户 / 共享场景✅ 需要严格控制权限和安全 | 配置精准,一次到位,适合长期稳定运行 | 步骤繁琐,需要提前准备好各类接入信息 |
-
QuickStart 后续调整:
括号里的提示
(Configure details later via openclaw configure..)意思是:
快速启动后,你随时可以在终端里运行
openclaw configure命令,重新打开配置向导,修改模型、工具、平台等所有细节。
-
Manual 配置内容:
手动模式会引导你完成:
- 选择大模型(如 Ollama、OpenAI 等)
- 配置工具权限(文件操作、系统命令等)
- 对接消息平台(如飞书、Discord、Slack)
- 安全与访问控制(白名单、权限隔离)
选择:我选择的是 QuickStart
3:
◆ Config handling
│ ● Use existing values
│ ○ Update values
│ ○ Reset
这是 OpenClaw 在启动或重新配置时,对已有配置文件的处理方式选择。
| 选项 | 含义 | 适用场景 |
|---|---|---|
| Use existing values(使用现有值) | 直接加载当前已保存的配置文件,不做任何修改,直接启动或继续流程 | ✅ 配置已完成且无需调整✅ 快速重启服务✅ 确认配置无误后复用 |
| Update values(更新值) | 进入配置向导,保留已有配置项,仅允许修改你指定的部分 | ✅ 微调配置(如更换模型、修改工具权限)✅ 不想重新填写全部内容✅ 增量修改 |
| Reset(重置) | 清空所有现有配置,恢复到初始状态,重新走完整配置流程 | ✅ 配置混乱 / 出错✅ 想从零开始重新部署✅ 切换到全新使用场景 |
- 日常启动 / 无需改配置:保持 Use existing values,最快启动服务。
- 需要微调参数:切换到 Update values,只改你需要的部分,避免重复操作。
- 配置彻底失效 / 想重来:选择 Reset,清空后重新配置。
我选择的是:Update values
4:
◆ Model/auth provider
│ ● OpenAI (Codex OAuth + API key)
│ ○ Anthropic
│ ○ Chutes
│ ○ vLLM
│ ○ Ollama
│ ○ MiniMax
│ ○ Moonshot AI (Kimi K2.5)
│ ○ Google
│ ○ xAI (Grok)
│ ○ Mistral AI
│ ○ Volcano Engine
│ ○ BytePlus
│ ○ OpenRouter
│ ○ Kilo Gateway
│ ○ Qwen
│ ○ Z.AI
│ ○ Qianfan
│ ○ Alibaba Cloud Model Studio
│ ○ Copilot
│ ○ Vercel AI Gateway
│ ○ OpenCode
│ ○ Xiaomi
│ ○ Synthetic
│ ○ Together AI
│ ○ Hugging Face
│ ○ Venice AI
│ ○ LiteLLM
│ ○ Cloudflare AI Gateway
│ ○ Custom Provider
│ ○ Skip for now
⚙️这是 OpenClaw 用于选择大模型接入方的配置界面,你可以根据自己的模型使用场景选择对应提供商。
| 类别 | 代表选项 | 特点与适用场景 |
|---|---|---|
| 主流商业模型 | OpenAI、Anthropic、Google、xAI(Grok)、Mistral AI | 提供高性能通用模型,需 API Key 或 OAuth 认证,适合生产环境 |
| 国内模型服务 | Moonshot AI(Kimi)、Qwen、Qianfan、Alibaba Cloud Model Studio、BytePlus、MiniMax | 国内访问更稳定,支持中文场景,需对应平台 API Key |
| 本地 / 开源部署 | Ollama、vLLM、LiteLLM、Hugging Face | 支持本地部署开源模型(如 Llama 系列、Qwen 等),无需外网 API,适合隐私敏感场景 |
| 网关 / 聚合服务 | OpenRouter、Volcano Engine、Cloudflare AI Gateway、Kilo Gateway、Vercel AI Gateway | 聚合多家模型服务,统一接口调用,方便切换模型 |
| 其他 / 自定义 | Custom Provider、Skip for now | 自定义接入未列出的模型;或暂时跳过配置,后续补充 |
-
OpenAI:默认选项,支持 GPT 系列模型,需提供 OpenAI API Key,部分场景支持 Codex OAuth 认证。
-
Ollama:适合你当前的本地部署场景,可直接对接本地运行的开源模型(如 Llama 3、Qwen 等),无需外网 API。
-
Skip for now:暂时跳过模型配置,后续可通过
openclaw configure命令重新设置。 -
本地部署 / 开源模型:选择 Ollama 或 vLLM,适配你已有的 GPU 环境。
-
使用国内模型:选择 Moonshot AI(Kimi) 或 Qwen,访问更稳定且中文支持更好。
-
快速体验 / 已有 OpenAI 账号:保持 OpenAI,直接填入 API Key 即可使用。
-
暂不配置模型:选择 Skip for now,先完成其他配置,后续再补充。
我选择的是Ollama,如果你购买了其他模型或者使用其他方式部署本地模型请根据自身情况进行修改
5:
Ollama base URL
http://127.0.0.1:11434
🤖 配置ollama的url地址
默认ollama是只支持本地127.0.0.1访问,通过压缩包部署的话可以在配置启动文件是修改,我是用的方式是docker部署,所以不只是支持127.0.0.1,可以直接更换为ollama的ip地址
6:
◆ Ollama mode
│ ● Cloud + Local (Ollama cloud models + local models)
│ ○ Local
🦙这是 OpenClaw 对接 Ollama 时,选择模型来源范围的配置项。
| 选项 | 含义 | 适用场景 |
|---|---|---|
| Cloud + Local | 同时使用 Ollama 云端模型 和 本地部署的模型,OpenClaw 可以调用两者 | ✅ 想兼顾本地隐私和云端大模型能力✅ 本地模型算力不足时, fallback 到云端 |
| Local | 仅使用本地运行的 Ollama 模型,完全不依赖云端服务 | ✅ 严格隐私 / 离线环境✅ 已在本地拉取并运行足够能力的模型(如 Llama 3、Qwen 等)✅ 避免网络依赖和云端费用 |
- Cloud + Local:需要你登录 Ollama 账号,才能访问云端模型池,适合需要更强模型能力但又想保留本地使用场景的情况。
- Local:完全依赖你在本机 / 服务器上通过
ollama run启动的模型,所有计算都在本地完成,数据不会离开你的设备,隐私性最高。
- 纯本地部署 / 隐私优先:选择 Local,适配你当前的 GPU 服务器环境,所有计算都在本地完成。
- 需要更强模型能力:选择 Cloud + Local,在保留本地模型的同时,可调用 Ollama 云端的更大参数模型。
因为我是纯本地部署的,所以我选择的是Local
7:
Default model
│ ● Keep current (ollama/glm-4.7-flash)
│ ○ Enter model manually
│ ○ ollama/glm-4.7-flash
│ ○ ollama/qwen3.5:9b
🤖 OpenClaw 默认模型选择详解
我部署的模型是○ ollama/qwen3.5:9b,所以选择此选项
8:
◆ Select channel (QuickStart)
│ ● Telegram (Bot API) (recommended · newcomer-friendly)
│ ○ WhatsApp (QR link)
│ ○ Discord (Bot API)
│ ○ IRC (Server + Nick)
│ ○ Google Chat (Chat API)
│ ○ Slack (Socket Mode)
│ ○ Signal (signal-cli)
│ ○ iMessage (imsg)
│ ○ LINE (Messaging API)
│ ○ Feishu/Lark (飞书)
│ ○ Nostr (NIP-04 DMs)
│ ○ Microsoft Teams (Bot Framework)
│ ○ Mattermost (plugin)
│ ○ Nextcloud Talk (self-hosted)
│ ○ Matrix (plugin)
│ ○ BlueBubbles (macOS app)
│ ○ Zalo (Bot API)
│ ○ Zalo (Personal Account)
│ ○ Synology Chat (Webhook)
│ ○ Tlon (Urbit)
│ ○ Skip for now
📡 这是 OpenClaw 用于选择对外交互的即时通讯平台的配置界面,你可以根据自己的使用场景选择对应的通道。
| 类别 | 代表选项 | 特点与适用场景 |
|---|---|---|
| 推荐新手选项 | Telegram (Bot API) | 官方推荐,配置简单,Bot API 成熟稳定,适合快速体验 |
| 国内常用平台 | Feishu/Lark (飞书) | 支持飞书 / Lark 企业协作平台,适合国内团队使用 |
| 海外主流平台 | WhatsApp、Discord、Slack、LINE | 对应海外主流通讯工具,需各自平台的 Bot/API 接入 |
| 自托管 / 开源平台 | Mattermost、Nextcloud Talk、Matrix | 适合自建服务、注重隐私的场景 |
| 其他 / 暂不配置 | Skip for now | 暂时跳过通道配置,后续通过 openclaw configure 补充 |
注意:本实验使用飞书作为交互平台,但是现在暂时不配置(等配置好飞书之后在配置),先跳过,选择Skip for now
9:
◆ Search provider
│ ● Brave Search (Structured results · country/language/time filters)
│ ○ Gemini (Google Search)
│ ○ Grok (xAI)
│ ○ Kimi (Moonshot)
│ ○ Perplexity Search
│ ○ Skip for now
🔍 这是 OpenClaw 用于配置联网搜索能力的界面,用于让 AI 代理获取实时信息、补充知识或验证内容。
| 选项 | 含义 | 特点与适用场景 |
|---|---|---|
| Brave Search (Structured results · country/language/time filters) | 默认选中,Brave 搜索引擎 | ✅ 结构化结果,支持国家 / 语言 / 时间过滤✅ 隐私友好,无追踪✅ 适合需要精准筛选搜索结果的场景 |
| Gemini (Google Search) | 基于 Google Search 的 Gemini 搜索 | ✅ 覆盖范围广,信息全面✅ 适合需要全球信息、深度检索的场景 |
| Grok (xAI) | xAI 旗下的 Grok 搜索服务 | ✅ 偏向实时、社交与趋势类信息✅ 适合获取热点话题、前沿动态 |
| Kimi (Moonshot) | Moonshot AI 提供的 Kimi 搜索能力 | ✅ 中文支持优秀,长文本处理能力强✅ 适合国内用户、中文信息检索 |
| Perplexity Search | Perplexity 提供的对话式搜索 | ✅ 以自然语言回答问题,直接生成摘要✅ 适合需要 “一问一答” 式信息获取 |
| Skip for now | 暂时跳过搜索配置 | ✅ 先完成核心部署,后续再补充搜索能力✅ 无需联网搜索的纯离线场景 |
- 默认 / 隐私优先:保持 Brave Search,结构化结果便于 AI 整理和引用,且隐私保护更好。
- 国内 / 中文场景:切换到 Kimi (Moonshot),中文信息获取更精准,访问更稳定。
- 全球信息 / 深度检索:选择 Gemini (Google Search),信息覆盖最全面。
- 对话式问答:选择 Perplexity Search,直接获取自然语言回答,减少信息整理成本。
- 离线 / 暂不需要搜索:选择 Skip for now,后续可通过
openclaw configure重新配置。
具体选择请根据你的实际情况,本实验不配置
10:
◆ Configure skills now? (recommended)
│ ● Yes / ○ No
⚙️ 这是 OpenClaw 配置流程中,关于是否立即配置工具 / 技能的确认提示,标注为 recommended(推荐)。
| 选项 | 含义 | 适用场景 |
|---|---|---|
| Yes | 进入技能配置向导,开启并配置 OpenClaw 的工具能力(如文件操作、系统命令、搜索、代码执行等) | ✅ 希望 OpenClaw 具备实际执行能力(如读写文件、调用命令、联网搜索)✅ 官方推荐,能让代理从 “聊天” 升级为 “可执行任务的助手” |
| No | 跳过技能配置,仅保留基础对话能力,后续可通过 openclaw configure 补充 |
✅ 暂时只想体验基础对话功能✅ 先完成核心部署,再逐步开放工具权限 |
若不想配置的话,选择NO即可
11:
◆ Install missing skill dependencies
│ ◻ Skip for now (Continue without installing dependencies)
│ ◻ 🔐 1password
│ ◻ 📰 blogwatcher
│ ◻ 🫐 blucli
│ ◻ 📸 camsnap
│ ◻ 🧩 clawhub
│ ◻ 🛌 eightctl
│ ◻ ✨ gemini
│ ◻ 🧲 gifgrep
│ ◻ 🐙 github
│ ◻ 🎮 gog
│ ◻ 📍 goplaces
│ ◻ 📧 himalaya
│ ◻ 📦 mcporter
│ ◻ 🍌 nano-banana-pro
│ ◻ 📄 nano-pdf
│ ◻ 💎 obsidian
│ ◻ 🎤 openai-whisper
│ ◻ 💡 openhue
│ ◻ 🧿 oracle
│ ◻ 🛵 ordercli
│ ◻ 🔊 sag
│ ◻ 🌊 songsee
│ ◻ 🔊 sonoscli
│ ◻ 🧾 summarize
│ ◻ 🎬 video-frames
│ ◻ 📱 wacli
│ ◻ 🐦 xurl
🛠️ 这是 OpenClaw 用于选择安装技能所需依赖包的界面,你可以按需勾选需要的技能,避免安装无用依赖。
| 选项 | 含义 | 适用场景 |
|---|---|---|
| Skip for now | 暂时跳过所有依赖安装,仅启动基础功能,后续可通过 openclaw configure 补充 |
✅ 快速完成部署✅ 暂时不需要额外技能 |
| 单个技能选项 | 勾选后会自动安装该技能所需的依赖库 / 工具 | ✅ 你需要使用对应技能时 |
🛠️ OpenClaw 技能速查表
| 技能名称 | 核心作用 | 前置条件 | 安全风险 |
|---|---|---|---|
1password |
对接 1Password 密码管理器,查询 / 获取密码、密钥 | 安装 1Password CLI 并登录账号 | ⚠️ 极高(可泄露所有密码) |
blogwatcher |
监控博客 / 网站更新,推送新内容通知 | 配置目标站点 RSS / 网页地址 | 低(仅被动监控) |
blucli |
控制本地蓝牙设备(连接、传输文件等) | 系统安装 bluez 等蓝牙工具,硬件可用 |
⚠️ 中(可访问 / 控制周边蓝牙设备) |
camsnap |
调用系统摄像头拍摄照片 / 视频 | 系统存在可用摄像头并授权 | ⚠️ 极高(可偷拍,侵犯隐私) |
clawhub |
OpenClaw 协作同步中心,分享配置 / 技能 | 登录 Clawhub 账号 | 中(可能泄露配置到云端) |
eightctl |
控制 Eight Sleep 智能睡眠设备 | 拥有 Eight Sleep 设备并绑定账号 | 低(仅控制智能家居) |
gemini |
调用 Google Gemini 多模态模型(图文音视频处理) | 拥有 Gemini API Key | 低(仅模型调用,无系统权限) |
gifgrep |
搜索本地 / 网络 GIF / 图片 | 可访问本地图片目录或图床 API | 低(仅读取图片文件) |
github |
管理 GitHub 仓库、Issue、PR 等 | 拥有 GitHub PAT(个人访问令牌) | ⚠️ 高(PAT 权限过大可篡改代码) |
gog |
控制 GOG Galaxy 游戏客户端(安装 / 启动游戏) | 安装 GOG Galaxy 并登录 | 低(仅控制游戏客户端) |
goplaces |
地理位置服务(查路线、POI、天气) | 可访问定位 / 地图 API(如 Google Maps) | 低(仅查询位置信息) |
himalaya |
邮件客户端工具,收发 / 管理邮件 | 配置邮箱账号(IMAP/SMTP) | 中(可读取 / 发送你的邮件) |
mcporter |
迁移 / 备份各类应用数据 | 对应应用已安装并授权访问 | 中(可读取应用敏感数据) |
nano-banana-pro |
文本 / 代码增强编辑工具 | 无特殊依赖(基础文本操作) | 低(仅读写文本文件) |
nano-pdf |
读取 / 解析 PDF 内容 | 系统安装 PDF 处理库(如 poppler) |
低(仅读取 PDF 文本) |
obsidian |
对接 Obsidian 笔记软件,读写 / 同步笔记 | 安装 Obsidian 并指定 vault 路径 | 中(可读写你的笔记文件) |
openai-whisper |
语音转文字(音频 / 视频转文本) | 系统安装 FFmpeg,有可用音频输入 | 中(可读取麦克风 / 音频文件) |
openhue |
控制 Philips Hue 智能灯 | 拥有 Hue 桥接器并完成配对 | 低(仅控制智能家居照明) |
oracle |
对接 Oracle 数据库,执行查询 / 操作 | 拥有 Oracle 数据库连接凭证 | ⚠️ 高(可读写数据库敏感数据) |
ordercli |
管理订单 / 电商平台订单(查询、创建) | 电商平台 API 凭证 | 中(可查看 / 操作你的订单) |
sag |
系统管理工具(查看资源、进程、日志) | 运行用户拥有系统监控权限 | ⚠️ 中(可泄露系统敏感信息) |
songsee |
音乐识别 / 播放控制(如识别歌曲) | 可访问音频输入 / 音乐服务 API | 低(仅音频识别与播放控制) |
sonoscli |
控制 Sonos 智能音响(播放、音量) | 同一局域网内有 Sonos 设备 | 低(仅控制智能家居音响) |
summarize |
文本 / 长文档 / 网页内容摘要生成 | 可访问目标文本 / 网页 | 低(仅读取并生成摘要) |
video-frames |
提取视频帧为图片,分析视频内容 | 系统安装 FFmpeg 等视频处理库 | 中(可读取视频文件) |
wacli |
控制 WhatsApp 客户端(收发消息) | 登录 WhatsApp 账号(如 whatsapp-web.js) |
⚠️ 高(可读取 / 发送你的聊天记录) |
xurl |
抓取网页内容,提取信息 / 生成预览 | 可访问目标网页(网络连通) | 低(仅读取网页内容) |
Skip for now |
跳过所有依赖安装,仅启动基础功能 | 无 | 无(最小权限启动) |
💡 选择建议
-
个人安全优先:只勾选你明确会用到的技能,避免安装高风险项(如
1password、camsnap、oracle)。 -
最小权限原则:给 API / 凭证分配最小必要权限(如 GitHub PAT 只给
repo而非admin权限)。 -
后续调整:随时可通过
openclaw configure重新安装 / 卸载技能依赖。 -
快速部署 / 最小化安装:先勾选 Skip for now,完成启动后再按需安装技能依赖。
⚠️ 部分技能(如执行系统命令、文件操作类)会提升 OpenClaw 的权限,建议只安装你确实需要的技能,并遵循最小权限原则。
12:
◆ Show Homebrew install command?
│ ● Yes / ○ No
📦 这是 OpenClaw 配置流程中,关于是否显示 Homebrew 安装命令的确认提示
| 选项 | 含义 | 适用场景 |
|---|---|---|
| Yes | 显示在 macOS 上安装 Homebrew 的官方命令,方便你复制执行 | ✅ 你正在使用 macOS 系统✅ 尚未安装 Homebrew✅ 需要通过 Homebrew 安装技能依赖 |
| No | 跳过显示 Homebrew 安装命令,继续后续配置 | ✅ 你使用的是 Linux/Windows 系统(Homebrew 主要为 macOS 设计)✅ 已安装 Homebrew✅ 不需要依赖 Homebrew 的技能 |
- Ubuntu/Linux 用户:建议选择 No,跳过无关的 macOS 命令。
- macOS 用户:选择 Yes,获取官方安装命令后手动执行。
13:
◆ Preferred node manager for skill installs
│ ● npm
│ ○ pnpm
│ ○ bun
📦 Node 包管理器选择详解
| 包管理器 | 核心特点 | 适用场景 |
|---|---|---|
| npm | Node.js 自带的默认包管理器,兼容性最广,生态最成熟 | ✅ 通用场景✅ 不想折腾、追求稳定✅ 默认推荐 |
| pnpm | 采用磁盘链接方式节省存储空间,安装速度更快,依赖管理更干净 | ✅ 磁盘空间有限✅ 多项目共享依赖✅ 追求高效 |
| bun | 新一代 JavaScript 运行时 + 包管理器,启动和安装速度极快,兼容性在完善中 | ✅ 追求极致性能✅ 实验性场景 |
- 默认 / 兼容性优先:保持 npm,这是最稳妥的选择,几乎所有 Node 技能都能正常安装。
- 追求效率 / 磁盘优化:切换到 pnpm,适合长期维护多项目的场景。
- 尝鲜 / 性能优先:选择 bun,但需注意部分旧版依赖可能存在兼容性问题。
选择默认的npm即可
接下来会进入安装
◓ Installing blogwatcher….
然后会配置相关技能的API KEY
14:
◆ Enable hooks?
│ ◻ Skip for now
│ ◻ 🚀 boot-md
│ ◻ 📎 bootstrap-extra-files
│ ◻ 📝 command-logger
│ ◻ 💾 session-memory
🪝 这是 OpenClaw 配置扩展钩子的界面,Hooks 是在核心流程中插入的自定义功能,用于增强 OpenClaw 的扩展能力,以下是各选项的完整说明:
| 选项 | 中文释义 | 核心作用 | 适用场景 | 风险 / 注意事项 |
|---|---|---|---|---|
Skip for now |
暂时跳过 | 不启用任何钩子,仅保留核心功能 | ✅ 快速部署✅ 暂时不需要扩展功能 | 无,最小化启动 |
🚀 boot-md |
启动脚本增强 | 加载自定义 Markdown 格式的启动脚本 / 配置 | ✅ 自定义启动流程✅ 批量配置初始化 | 低,仅加载配置文件 |
📎 bootstrap-extra-files |
额外文件引导 | 启动时自动加载指定目录的额外配置 / 脚本文件 | ✅ 扩展自定义工具✅ 加载第三方插件 | 中,若加载恶意文件可能有风险 |
📝 command-logger |
命令日志器 | 记录 OpenClaw 执行的所有命令 / 操作日志 | ✅ 审计 / 排查问题✅ 监控操作行为 | 低,仅记录日志(注意日志文件权限) |
💾 session-memory |
会话记忆 | 持久化存储对话会话,保留上下文记忆 | ✅ 长对话场景✅ 多轮交互 | 低,仅存储对话内容(注意隐私) |
-
新手 / 快速体验:勾选
Skip for now,先完成核心部署,后续通过openclaw configure再启用需要的钩子。 -
需要基础监控:勾选
command-logger(记录操作日志,方便排查问题)。 -
需要会话记忆:勾选
session-memory(让 AI 记住多轮对话上下文)。 -
自定义配置:勾选
boot-md+bootstrap-extra-files(适合有自定义配置需求的场景)。 -
Hooks 是可选扩展,不启用任何钩子也不影响 OpenClaw 核心功能(对话、技能调用)。
-
后续可通过
openclaw configure重新进入此界面,随时启用 / 关闭钩子。 -
钩子的配置文件默认存储在
~/.openclaw/hooks/目录,可手动修改。
我的选择: Skip for now
15:
◆ How do you want to hatch your bot?
│ ● Hatch in TUI (recommended)
│ ○ Open the Web UI
│ ○ Do this later
🐣这是 OpenClaw 配置完成后,选择最终启动方式的界面,不同选项对应不同的交互形式
| 选项 | 中文释义 | 核心特点 | 适用场景 | 操作难度 |
|---|---|---|---|---|
Hatch in TUI (recommended) |
以终端交互界面启动(推荐) | ✅ 基于终端的图形化界面(TUI),无需浏览器✅ 官方推荐,功能完整且轻量✅ 直接在服务器终端操作,适配无图形界面环境 | ✅ 服务器 / 无桌面环境部署✅ 新手快速上手✅ 偏好终端操作 | 低(终端内可视化操作) |
Open the Web UI |
启动 Web 界面 | ✅ 浏览器访问的图形化界面,操作更直观✅ 支持多设备访问(需开放端口) | ✅ 有桌面环境 / 可访问浏览器✅ 希望可视化操作✅ 多设备管理 | 中(需配置端口 / 网络) |
Do this later |
稍后启动 | ✅ 仅完成配置,不启动服务✅ 后续可通过 openclaw hatch 命令手动启动 |
✅ 暂时不需要立即使用✅ 需先配置其他环境(如端口、权限) | 无(仅跳过启动) |
无论选哪种,后续都可通过以下命令手动启动:
# 启动 TUI 模式
openclaw hatch --tui
# 启动 Web UI 模式
openclaw hatch --web
- TUI 是服务器环境的最优选择:无需图形界面,直接在终端可视化操作,官方推荐且适配性最好。
- Web UI 适合有桌面 / 多设备场景:需额外配置端口和防火墙,操作更直观但步骤稍多。
- 稍后启动仅保存配置:后续可通过
openclaw hatch命令手动选择启动模式。
因为openclaw启动web ui访问只能通过127.0.0.1访问,理论上linux服务器上适合TUI的
但是本实验选择的是Open the Web UI,下文有访问的方式
选好后按回车,OpenClaw 就会完成最终启动,你可以开始使用啦!
五、配置OpenClaw Web UI供外部访问
OpenClaw Web UI默认只能本地访问:127.0.0.1:18789
#我们这里使用ssh端口转发的方式来在windows上访问网页
# 核心命令:将本地 18789 端口映射到服务器的 127.0.0.1:18789
ssh -N -L 18789:127.0.0.1:18789 root@10.132.47.63
命令参数解释:
-N:只建立连接,不执行远程命令(仅端口转发);-L:本地端口映射(格式:本地端口:服务器内网地址:服务器端口);root@10.132.47.63:服务器的登录账号 + 公网 IP
SSH 端口转发依赖这个命令窗口,关闭则映射失效;若想后台运行(Linux/Mac),可加 -f 参数:
ssh -f -N -L 18789:127.0.0.1:18789 root@10.132.47.63
若本地 18789 端口已被占用,可修改本地端口(比如改为 18790):
ssh -N -L 18790:127.0.0.1:18789 root@10.132.47.63
◇ How do you want to hatch your bot?
│ Open the Web UI
│
◇ Dashboard ready ────────────────────────────────────────────────────────────────╮
│ │
│ Dashboard link (with token): │
│ http://127.0.0.1:18789/#token=571d670ca861d4a8f62ff9d07f26634f75a998cf0e94300c │
│ Copy/paste this URL in a browser on this machine to control OpenClaw. │
│ No GUI detected. Open from your computer: │
│ ssh -N -L 18789:127.0.0.1:18789 root@10.132.47.63 │
│ Then open: │
│ http://localhost:18789/ │
│ http://localhost:18789/#token=571d670ca861d4a8f62ff9d07f26634f75a998cf0e94300c │
│ Docs: │
│ https://docs.openclaw.ai/gateway/remote │
│ https://docs.openclaw.ai/web/control-ui │
│ │
├──────────────────────────────────────────────────────────────────────────────────╯
更多推荐


所有评论(0)