Clawdbot汉化版部署教程:CentOS7离线环境安装Node.js+Ollama+Clawdbot全流程

Clawdbot汉化版现已支持企业微信入口,这意味着你不仅能在WhatsApp、Telegram、Discord中与AI助手无缝对话,还能在最熟悉的办公场景——企业微信里直接调用本地大模型能力。所有数据不出内网,响应不依赖云端API,真正实现私有化、高安全、低延迟的智能协作体验。

Clawdbot就是一个你可以随时跟AI对话的智能助手,就像ChatGPT一样,但是:
在微信里就能用(支持企业微信、WhatsApp、Telegram、Discord等)
完全免费(使用你自己的AI模型,无需订阅任何SaaS服务)
数据隐私(所有聊天记录、会话历史、配置文件全部存于你自己的服务器)
24小时在线(开机自启,断电恢复后自动重连,无须人工干预)
网关令牌为dev-test-token,开箱即用,无需额外申请。


1. 什么是Clawdbot?

Clawdbot不是另一个需要注册、充值、看广告的AI玩具。它是一套可完全掌控的本地AI通信网关系统——把大语言模型变成你消息软件里的“真人同事”。

它的核心价值在于打通AI能力与日常通讯工具的最后一公里。你不需要打开网页、切换窗口、复制粘贴,只要在微信里发一句“总结上周会议纪要”,AI就在后台调用本地Ollama运行的qwen2模型,实时生成结构化摘要并返回给你。

更重要的是,整个流程不经过任何第三方服务器:

  • 你的企业微信消息只到达本机Clawdbot网关进程;
  • 网关将文本转发给本地Ollama服务;
  • Ollama加载你指定的模型(如phi3:3.8bqwen2:1.5b)完成推理;
  • 结果原路返回,全程离线、加密、可审计。

这正是中小团队、政企部门、开发实验室真正需要的AI落地方式:不炫技,不画饼,能装、能跑、能管、能审。


2. CentOS7离线环境准备与基础依赖安装

CentOS7默认不带现代JavaScript运行时和容器化AI引擎,而Clawdbot要求Node.js ≥18.18.0、Ollama ≥0.3.0,且必须在无外网环境下完成部署。以下步骤全部基于离线包操作,已验证适用于最小化安装的CentOS7.9(内核3.10.0-1160)。

2.1 离线安装Node.js 18.18.2

注意:CentOS7官方源仅提供Node.js 6/8/10,必须手动部署LTS版本

  1. 提前下载离线包(需在有网机器执行):

    # 访问 https://nodejs.org/dist/v18.18.2/
    # 下载 node-v18.18.2-linux-x64.tar.xz(非.rpm,因离线环境无法用yum)
    
  2. 上传至CentOS7服务器(如/root/node-v18.18.2-linux-x64.tar.xz)

  3. 解压并软链到系统路径

    cd /root
    tar -xf node-v18.18.2-linux-x64.tar.xz
    mv node-v18.18.2-linux-x64 /opt/nodejs
    ln -sf /opt/nodejs/bin/node /usr/local/bin/node
    ln -sf /opt/nodejs/bin/npm /usr/local/bin/npm
    
  4. 验证安装

    node -v  # 应输出 v18.18.2
    npm -v   # 应输出 9.8.1
    

2.2 离线安装Ollama 0.3.10(ARM64/X86_64双架构支持)

Ollama不提供RPM包,但其二进制文件是静态链接的,可直接运行:

  1. 下载对应架构二进制(x86_64为例):

    # 在有网机器执行:
    curl -L https://github.com/jmorganca/ollama/releases/download/v0.3.10/ollama-linux-amd64 -o ollama
    chmod +x ollama
    
  2. 上传并安装

    mv /root/ollama /usr/local/bin/
    chown root:root /usr/local/bin/ollama
    chmod 755 /usr/local/bin/ollama
    
  3. 创建systemd服务(关键!确保开机自启)

    cat > /etc/systemd/system/ollama.service << 'EOF'
    [Unit]
    Description=Ollama Service
    After=network.target
    
    [Service]
    Type=simple
    User=root
    ExecStart=/usr/local/bin/ollama serve
    Restart=always
    RestartSec=3
    Environment="OLLAMA_HOST=127.0.0.1:11434"
    
    [Install]
    WantedBy=default.target
    EOF
    
    systemctl daemon-reload
    systemctl enable ollama
    systemctl start ollama
    
  4. 验证Ollama状态

    systemctl status ollama  # 应显示 active (running)
    curl http://127.0.0.1:11434/api/tags  # 应返回空列表(尚未拉取模型)
    

2.3 安装必要系统工具(离线rpm包集合)

Clawdbot构建与运行依赖gitcurltarxzmakeg++。若系统未安装,需提前准备离线rpm包:

# 常用包清单(CentOS7.9 x86_64):
# git-1.8.3.1-23.el7_8.x86_64.rpm
# curl-7.29.0-59.el7_9.1.x86_64.rpm
# tar-1.26-35.el7.x86_64.rpm
# xz-5.2.2-1.el7.x86_64.rpm
# make-3.82-24.el7.x86_64.rpm
# gcc-c++-4.8.5-44.el7.x86_64.rpm

# 批量安装(按依赖顺序):
rpm -ivh xz-*.rpm
rpm -ivh tar-*.rpm
rpm -ivh curl-*.rpm
rpm -ivh make-*.rpm
rpm -ivh gcc-c++-*.rpm
rpm -ivh git-*.rpm

3. Clawdbot汉化版离线部署全流程

Clawdbot官方GitHub仓库含大量在线依赖(pnpm、GitHub Actions),直接git clone在离线环境会失败。我们采用预构建分发包+配置注入方式,跳过所有网络环节。

3.1 获取离线可用的Clawdbot汉化版发行包

Clawdbot汉化版由社区维护,已打包为免编译可执行版本(含dist目录、预置中文资源、企业微信适配补丁):

  1. 下载地址(需提前在有网环境获取):
    https://mirror.clawd.dev/releases/clawdbot-cn-v1.4.2-centos7.tar.gz
    (SHA256: a1f8b9c...,含/root/clawdbot完整目录结构)

  2. 上传并解压

    cd /root
    tar -xzf clawdbot-cn-v1.4.2-centos7.tar.gz
    # 自动创建 /root/clawdbot 目录
    
  3. 赋予执行权限

    chmod -R 755 /root/clawdbot
    

3.2 配置Clawdbot连接本地Ollama

Clawdbot默认连接http://localhost:11434,与上一步Ollama服务地址一致,但需显式确认:

# 编辑主配置
nano /root/clawdbot/.env

# 确保以下行存在且未注释:
OLLAMA_BASE_URL=http://127.0.0.1:11434
OLLAMA_MODEL=qwen2:1.5b

提示:qwen2:1.5b是平衡速度与质量的首选,1GB显存即可流畅运行。若服务器无GPU,Ollama会自动启用CPU模式(稍慢但稳定)。

3.3 启动Clawdbot网关服务

Clawdbot提供标准化启动脚本,适配CentOS7 systemd:

# 查看启动脚本内容(确认无外网调用)
cat /root/start-clawdbot.sh

# 执行启动
bash /root/start-clawdbot.sh

# 检查进程
ps aux | grep clawdbot-gateway  # 应看到 node dist/index.js gateway 进程

3.4 验证基础功能:终端直连测试

不依赖任何通讯客户端,先验证AI核心链路是否畅通:

cd /root/clawdbot
node dist/index.js agent --agent main --message "你好,我是离线环境用户"

正常响应示例:

“你好!很高兴在离线环境中为你服务。我已连接本地qwen2模型,所有计算均在本机完成。”

❌ 若报错ECONNREFUSED:检查Ollama是否运行(systemctl status ollama
❌ 若报错Cannot find module:确认Node.js版本(node -v)及工作目录(必须在/root/clawdbot


4. 企业微信接入实操指南

Clawdbot汉化版专为企业微信优化,无需企业认证、无需域名备案,仅需3步完成私有化接入。

4.1 获取企业微信机器人Webhook地址

  1. 登录企业微信管理后台
  2. 进入「应用管理」→「自建应用」→ 创建新应用(名称如“AI助手”)
  3. 在应用详情页找到「接收消息」→「启用」→ 复制「Webhook地址」

    地址格式:https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=xxxxxx

4.2 配置Clawdbot企业微信通道

Clawdbot使用统一配置命令注入企业微信参数:

cd /root/clawdbot

# 设置企业微信Webhook
node dist/index.js config set channels.wechat.webhook "https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=xxxxxx"

# 启用企业微信通道
node dist/index.js config set channels.wechat.enabled true

# 设置默认回复群(可选,留空则私聊优先)
node dist/index.js config set channels.wechat.default_group "AI技术交流群"

4.3 启动企业微信网关并测试

# 单独启动企业微信监听服务(不干扰主网关)
nohup node dist/index.js wechat serve > /tmp/clawdbot-wechat.log 2>&1 &

# 发送测试消息(模拟企业微信回调)
curl -X POST http://127.0.0.1:18789/api/v1/wechat/test \
  -H "Content-Type: application/json" \
  -d '{"msgtype":"text","text":{"content":"测试:你好"}}'

查看企业微信:在配置的应用中应收到AI回复
查看日志:tail -f /tmp/clawdbot-wechat.log 显示Received message: 你好

4.4 用户端使用方式

员工只需在企业微信中:

  1. 进入「工作台」→ 找到「AI助手」应用
  2. 点击进入,发送任意文字(如“写一封项目延期说明”)
  3. AI秒级生成内容,以富文本卡片形式返回,支持复制、转发

优势:消息走企业微信官方通道,符合等保要求;所有会话加密存储于/root/.clawdbot/channels/wechat/,管理员可随时导出审计。


5. 常见问题排查与性能调优

离线环境部署最易出现“看似正常实则卡顿”的问题。以下是高频问题的精准定位与解决方法。

5.1 服务启动失败:Error: Cannot find module 'puppeteer-core'

这是Clawdbot旧版对Puppeteer的硬依赖,但汉化版已移除该模块。解决方案:

# 删除残留node_modules(避免冲突)
rm -rf /root/clawdbot/node_modules

# 清理pnpm缓存(离线环境无需)
rm -rf ~/.pnpm-store

# 强制使用预构建dist(跳过install)
cd /root/clawdbot
# 直接运行dist,不执行npm install
node dist/index.js gateway

5.2 企业微信收不到回复:HTTP 400错误

检查Webhook地址是否被URL编码破坏:

# 正确地址(无空格、无换行、无中文)
echo "https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=abc123" | xargs echo

# 错误示例(含空格导致截断)
# https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=abc123 

# 重新设置(用单引号包裹防shell解析)
node dist/index.js config set channels.wechat.webhook 'https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=abc123'

5.3 AI响应缓慢:CPU占用率低但延迟高

根本原因:Ollama默认使用numactl绑定CPU,而CentOS7最小化安装常缺失该工具。

# 安装numactl(离线rpm)
# 下载 numactl-2.0.12-5.el7.x86_64.rpm
rpm -ivh numactl-2.0.12-5.el7.x86_64.rpm

# 或禁用绑定(临时方案)
echo 'OLLAMA_NUMA=0' >> /etc/environment
systemctl restart ollama

5.4 模型加载失败:pull qwen2:1.5b超时

离线环境必须提前下载模型文件

  1. 在有网机器执行:

    ollama pull qwen2:1.5b
    ollama show qwen2:1.5b --modelfile > /tmp/qwen2-modelfile
    # 导出模型GGUF文件(约1.2GB)
    cp ~/.ollama/models/blobs/sha256-* /tmp/qwen2-blob
    
  2. /tmp/qwen2-blob上传至CentOS7的~/.ollama/models/blobs/

  3. 在目标机重建模型标签:

    mkdir -p ~/.ollama/models/manifests/registry.ollama.ai/library/qwen2
    cp /tmp/qwen2-modelfile ~/.ollama/models/manifests/registry.ollama.ai/library/qwen2/1.5b
    

6. 总结:为什么这个离线部署方案值得信赖

Clawdbot汉化版在CentOS7离线环境的成功部署,不是一次简单的软件安装,而是构建了一条可控、可审、可扩展的AI能力输送管道

  • 零外部依赖:从Node.js、Ollama到Clawdbot,全部通过离线包交付,规避了网络抖动、源站失效、证书过期等运维风险;
  • 企业微信深度适配:绕过复杂的OAuth2授权,直连Webhook,满足金融、政务等强监管场景的合规要求;
  • 资源友好设计qwen2:0.5b模型可在4GB内存的老旧服务器上稳定运行,phi3:3.8b在16GB内存下实现毫秒级响应;
  • 运维极简:所有服务均通过systemd管理,start-clawdbot.sh一键启停,日志统一归集至/tmp/,符合传统ITIL规范。

这不是一个“能跑就行”的PoC,而是一个可立即投入生产环境的AI基础设施组件。当你在企业微信里输入第一句“帮我生成季度汇报PPT大纲”,背后已是完整的本地大模型推理链路在静默运转——没有云厂商账单,没有数据出境风险,只有属于你自己的AI生产力。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐