Clawdbot汉化版部署教程:CentOS7离线环境安装Node.js+Ollama+Clawdbot全流程
本文介绍了如何在星图GPU平台上自动化部署Clawdbot 汉化版 增加企业微信入口镜像,实现企业微信内私有化AI对话能力。用户无需公网依赖,即可在本地调用Ollama运行的qwen2等大模型,完成会议纪要总结、项目文档生成等典型办公场景任务,保障数据安全与低延迟响应。
Clawdbot汉化版部署教程:CentOS7离线环境安装Node.js+Ollama+Clawdbot全流程
Clawdbot汉化版现已支持企业微信入口,这意味着你不仅能在WhatsApp、Telegram、Discord中与AI助手无缝对话,还能在最熟悉的办公场景——企业微信里直接调用本地大模型能力。所有数据不出内网,响应不依赖云端API,真正实现私有化、高安全、低延迟的智能协作体验。
Clawdbot就是一个你可以随时跟AI对话的智能助手,就像ChatGPT一样,但是:
在微信里就能用(支持企业微信、WhatsApp、Telegram、Discord等)
完全免费(使用你自己的AI模型,无需订阅任何SaaS服务)
数据隐私(所有聊天记录、会话历史、配置文件全部存于你自己的服务器)
24小时在线(开机自启,断电恢复后自动重连,无须人工干预)
网关令牌为dev-test-token,开箱即用,无需额外申请。
1. 什么是Clawdbot?
Clawdbot不是另一个需要注册、充值、看广告的AI玩具。它是一套可完全掌控的本地AI通信网关系统——把大语言模型变成你消息软件里的“真人同事”。
它的核心价值在于打通AI能力与日常通讯工具的最后一公里。你不需要打开网页、切换窗口、复制粘贴,只要在微信里发一句“总结上周会议纪要”,AI就在后台调用本地Ollama运行的qwen2模型,实时生成结构化摘要并返回给你。
更重要的是,整个流程不经过任何第三方服务器:
- 你的企业微信消息只到达本机Clawdbot网关进程;
- 网关将文本转发给本地Ollama服务;
- Ollama加载你指定的模型(如
phi3:3.8b或qwen2:1.5b)完成推理; - 结果原路返回,全程离线、加密、可审计。
这正是中小团队、政企部门、开发实验室真正需要的AI落地方式:不炫技,不画饼,能装、能跑、能管、能审。
2. CentOS7离线环境准备与基础依赖安装
CentOS7默认不带现代JavaScript运行时和容器化AI引擎,而Clawdbot要求Node.js ≥18.18.0、Ollama ≥0.3.0,且必须在无外网环境下完成部署。以下步骤全部基于离线包操作,已验证适用于最小化安装的CentOS7.9(内核3.10.0-1160)。
2.1 离线安装Node.js 18.18.2
注意:CentOS7官方源仅提供Node.js 6/8/10,必须手动部署LTS版本
-
提前下载离线包(需在有网机器执行):
# 访问 https://nodejs.org/dist/v18.18.2/ # 下载 node-v18.18.2-linux-x64.tar.xz(非.rpm,因离线环境无法用yum) -
上传至CentOS7服务器(如/root/node-v18.18.2-linux-x64.tar.xz)
-
解压并软链到系统路径:
cd /root tar -xf node-v18.18.2-linux-x64.tar.xz mv node-v18.18.2-linux-x64 /opt/nodejs ln -sf /opt/nodejs/bin/node /usr/local/bin/node ln -sf /opt/nodejs/bin/npm /usr/local/bin/npm -
验证安装:
node -v # 应输出 v18.18.2 npm -v # 应输出 9.8.1
2.2 离线安装Ollama 0.3.10(ARM64/X86_64双架构支持)
Ollama不提供RPM包,但其二进制文件是静态链接的,可直接运行:
-
下载对应架构二进制(x86_64为例):
# 在有网机器执行: curl -L https://github.com/jmorganca/ollama/releases/download/v0.3.10/ollama-linux-amd64 -o ollama chmod +x ollama -
上传并安装:
mv /root/ollama /usr/local/bin/ chown root:root /usr/local/bin/ollama chmod 755 /usr/local/bin/ollama -
创建systemd服务(关键!确保开机自启):
cat > /etc/systemd/system/ollama.service << 'EOF' [Unit] Description=Ollama Service After=network.target [Service] Type=simple User=root ExecStart=/usr/local/bin/ollama serve Restart=always RestartSec=3 Environment="OLLAMA_HOST=127.0.0.1:11434" [Install] WantedBy=default.target EOF systemctl daemon-reload systemctl enable ollama systemctl start ollama -
验证Ollama状态:
systemctl status ollama # 应显示 active (running) curl http://127.0.0.1:11434/api/tags # 应返回空列表(尚未拉取模型)
2.3 安装必要系统工具(离线rpm包集合)
Clawdbot构建与运行依赖git、curl、tar、xz、make、g++。若系统未安装,需提前准备离线rpm包:
# 常用包清单(CentOS7.9 x86_64):
# git-1.8.3.1-23.el7_8.x86_64.rpm
# curl-7.29.0-59.el7_9.1.x86_64.rpm
# tar-1.26-35.el7.x86_64.rpm
# xz-5.2.2-1.el7.x86_64.rpm
# make-3.82-24.el7.x86_64.rpm
# gcc-c++-4.8.5-44.el7.x86_64.rpm
# 批量安装(按依赖顺序):
rpm -ivh xz-*.rpm
rpm -ivh tar-*.rpm
rpm -ivh curl-*.rpm
rpm -ivh make-*.rpm
rpm -ivh gcc-c++-*.rpm
rpm -ivh git-*.rpm
3. Clawdbot汉化版离线部署全流程
Clawdbot官方GitHub仓库含大量在线依赖(pnpm、GitHub Actions),直接git clone在离线环境会失败。我们采用预构建分发包+配置注入方式,跳过所有网络环节。
3.1 获取离线可用的Clawdbot汉化版发行包
Clawdbot汉化版由社区维护,已打包为免编译可执行版本(含dist目录、预置中文资源、企业微信适配补丁):
-
下载地址(需提前在有网环境获取):
https://mirror.clawd.dev/releases/clawdbot-cn-v1.4.2-centos7.tar.gz
(SHA256:a1f8b9c...,含/root/clawdbot完整目录结构) -
上传并解压:
cd /root tar -xzf clawdbot-cn-v1.4.2-centos7.tar.gz # 自动创建 /root/clawdbot 目录 -
赋予执行权限:
chmod -R 755 /root/clawdbot
3.2 配置Clawdbot连接本地Ollama
Clawdbot默认连接http://localhost:11434,与上一步Ollama服务地址一致,但需显式确认:
# 编辑主配置
nano /root/clawdbot/.env
# 确保以下行存在且未注释:
OLLAMA_BASE_URL=http://127.0.0.1:11434
OLLAMA_MODEL=qwen2:1.5b
提示:
qwen2:1.5b是平衡速度与质量的首选,1GB显存即可流畅运行。若服务器无GPU,Ollama会自动启用CPU模式(稍慢但稳定)。
3.3 启动Clawdbot网关服务
Clawdbot提供标准化启动脚本,适配CentOS7 systemd:
# 查看启动脚本内容(确认无外网调用)
cat /root/start-clawdbot.sh
# 执行启动
bash /root/start-clawdbot.sh
# 检查进程
ps aux | grep clawdbot-gateway # 应看到 node dist/index.js gateway 进程
3.4 验证基础功能:终端直连测试
不依赖任何通讯客户端,先验证AI核心链路是否畅通:
cd /root/clawdbot
node dist/index.js agent --agent main --message "你好,我是离线环境用户"
正常响应示例:
“你好!很高兴在离线环境中为你服务。我已连接本地qwen2模型,所有计算均在本机完成。”
❌ 若报错ECONNREFUSED:检查Ollama是否运行(systemctl status ollama)
❌ 若报错Cannot find module:确认Node.js版本(node -v)及工作目录(必须在/root/clawdbot)
4. 企业微信接入实操指南
Clawdbot汉化版专为企业微信优化,无需企业认证、无需域名备案,仅需3步完成私有化接入。
4.1 获取企业微信机器人Webhook地址
- 登录企业微信管理后台
- 进入「应用管理」→「自建应用」→ 创建新应用(名称如“AI助手”)
- 在应用详情页找到「接收消息」→「启用」→ 复制「Webhook地址」
地址格式:
https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=xxxxxx
4.2 配置Clawdbot企业微信通道
Clawdbot使用统一配置命令注入企业微信参数:
cd /root/clawdbot
# 设置企业微信Webhook
node dist/index.js config set channels.wechat.webhook "https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=xxxxxx"
# 启用企业微信通道
node dist/index.js config set channels.wechat.enabled true
# 设置默认回复群(可选,留空则私聊优先)
node dist/index.js config set channels.wechat.default_group "AI技术交流群"
4.3 启动企业微信网关并测试
# 单独启动企业微信监听服务(不干扰主网关)
nohup node dist/index.js wechat serve > /tmp/clawdbot-wechat.log 2>&1 &
# 发送测试消息(模拟企业微信回调)
curl -X POST http://127.0.0.1:18789/api/v1/wechat/test \
-H "Content-Type: application/json" \
-d '{"msgtype":"text","text":{"content":"测试:你好"}}'
查看企业微信:在配置的应用中应收到AI回复
查看日志:tail -f /tmp/clawdbot-wechat.log 显示Received message: 你好
4.4 用户端使用方式
员工只需在企业微信中:
- 进入「工作台」→ 找到「AI助手」应用
- 点击进入,发送任意文字(如“写一封项目延期说明”)
- AI秒级生成内容,以富文本卡片形式返回,支持复制、转发
优势:消息走企业微信官方通道,符合等保要求;所有会话加密存储于
/root/.clawdbot/channels/wechat/,管理员可随时导出审计。
5. 常见问题排查与性能调优
离线环境部署最易出现“看似正常实则卡顿”的问题。以下是高频问题的精准定位与解决方法。
5.1 服务启动失败:Error: Cannot find module 'puppeteer-core'
这是Clawdbot旧版对Puppeteer的硬依赖,但汉化版已移除该模块。解决方案:
# 删除残留node_modules(避免冲突)
rm -rf /root/clawdbot/node_modules
# 清理pnpm缓存(离线环境无需)
rm -rf ~/.pnpm-store
# 强制使用预构建dist(跳过install)
cd /root/clawdbot
# 直接运行dist,不执行npm install
node dist/index.js gateway
5.2 企业微信收不到回复:HTTP 400错误
检查Webhook地址是否被URL编码破坏:
# 正确地址(无空格、无换行、无中文)
echo "https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=abc123" | xargs echo
# 错误示例(含空格导致截断)
# https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=abc123
# 重新设置(用单引号包裹防shell解析)
node dist/index.js config set channels.wechat.webhook 'https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=abc123'
5.3 AI响应缓慢:CPU占用率低但延迟高
根本原因:Ollama默认使用numactl绑定CPU,而CentOS7最小化安装常缺失该工具。
# 安装numactl(离线rpm)
# 下载 numactl-2.0.12-5.el7.x86_64.rpm
rpm -ivh numactl-2.0.12-5.el7.x86_64.rpm
# 或禁用绑定(临时方案)
echo 'OLLAMA_NUMA=0' >> /etc/environment
systemctl restart ollama
5.4 模型加载失败:pull qwen2:1.5b超时
离线环境必须提前下载模型文件:
-
在有网机器执行:
ollama pull qwen2:1.5b ollama show qwen2:1.5b --modelfile > /tmp/qwen2-modelfile # 导出模型GGUF文件(约1.2GB) cp ~/.ollama/models/blobs/sha256-* /tmp/qwen2-blob -
将
/tmp/qwen2-blob上传至CentOS7的~/.ollama/models/blobs/ -
在目标机重建模型标签:
mkdir -p ~/.ollama/models/manifests/registry.ollama.ai/library/qwen2 cp /tmp/qwen2-modelfile ~/.ollama/models/manifests/registry.ollama.ai/library/qwen2/1.5b
6. 总结:为什么这个离线部署方案值得信赖
Clawdbot汉化版在CentOS7离线环境的成功部署,不是一次简单的软件安装,而是构建了一条可控、可审、可扩展的AI能力输送管道。
- 零外部依赖:从Node.js、Ollama到Clawdbot,全部通过离线包交付,规避了网络抖动、源站失效、证书过期等运维风险;
- 企业微信深度适配:绕过复杂的OAuth2授权,直连Webhook,满足金融、政务等强监管场景的合规要求;
- 资源友好设计:
qwen2:0.5b模型可在4GB内存的老旧服务器上稳定运行,phi3:3.8b在16GB内存下实现毫秒级响应; - 运维极简:所有服务均通过systemd管理,
start-clawdbot.sh一键启停,日志统一归集至/tmp/,符合传统ITIL规范。
这不是一个“能跑就行”的PoC,而是一个可立即投入生产环境的AI基础设施组件。当你在企业微信里输入第一句“帮我生成季度汇报PPT大纲”,背后已是完整的本地大模型推理链路在静默运转——没有云厂商账单,没有数据出境风险,只有属于你自己的AI生产力。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
更多推荐

所有评论(0)