Clawdbot汉化版保姆级教程:Telegram BotFather创建+Token注入全流程
本文介绍了如何在星图GPU平台上自动化部署Clawdbot 汉化版 增加企业微信入口镜像,实现本地化AI智能对话服务。用户可在企业微信等国内主流通讯工具中,无需翻墙即可调用私有大模型进行销售文案生成、技术答疑、文档批改等办公场景任务,兼顾数据隐私与协作效率。
Clawdbot汉化版保姆级教程:Telegram BotFather创建+Token注入全流程
Clawdbot 汉化版现已支持企业微信入口,让国内用户无需翻墙即可在熟悉的办公环境中与AI深度协作。这一更新不仅补齐了主流通讯平台拼图,更通过本地化交互逻辑和中文语义优化,显著提升了响应准确率与对话自然度。
Clawdbot 就是一个你可以随时跟 AI 对话的智能助手,就像 ChatGPT 一样,但是:
- 在微信里就能用(支持 WhatsApp、Telegram、Discord 等)
- 完全免费(使用你自己的 AI 模型)
- 数据隐私(所有聊天记录都在你自己的电脑上)
- 24 小时在线(开机自动启动)
网关令牌 dev-test-token
1. 什么是 Clawdbot?
Clawdbot 不是另一个云端聊天机器人,而是一套运行在你本地设备上的「AI通信中枢」。它把大模型的能力封装成可插拔的服务模块,再通过消息网关对接各类即时通讯工具——你的手机、电脑、甚至智能音箱,都能成为AI的输入输出终端。
关键在于:所有推理过程发生在你自己的机器上。没有API调用费用,没有数据上传风险,也没有厂商锁定。你安装什么模型、怎么配置人设、如何管理记忆,全部由你自己掌控。
它不是玩具,而是真正能嵌入工作流的生产力工具。比如:
- 销售人员用企业微信向客户发送AI生成的产品对比文案;
- 开发者在Telegram群组中直接用
/ask命令查询报错日志; - 教师通过WhatsApp给学生自动批改作文并生成个性化评语。
这种“模型私有、通道开放、控制自主”的设计,正是Clawdbot区别于其他AI助手的核心价值。
2. 第一次使用
2.1 检查服务是否运行
打开终端,执行以下命令查看进程:
ps aux | grep clawdbot
如果看到类似输出,说明网关服务正在后台运行:
root 133175 0.8 2.1 1245678 89234 ? Ssl 10:23 0:15 node /root/clawdbot/dist/index.js gateway
如果没有运行,请执行启动脚本:
bash /root/start-clawdbot.sh
该脚本会自动检查依赖、加载配置,并启动网关服务。首次运行可能需要10–20秒完成初始化。
小贴士:Clawdbot默认以systemd服务方式注册,你也可以用
sudo systemctl status clawdbot-gateway查看服务状态。
2.2 测试基础对话能力
进入项目目录并发送一条测试消息:
cd /root/clawdbot
node dist/index.js agent --agent main --message "你好"
如果终端返回一段结构清晰的JSON响应,其中包含"response"字段且内容为中文问候语(如“你好!我是你的AI助手,有什么可以帮您?”),说明核心推理链路已通。
这一步验证了三件事:
- 本地AI模型(如Ollama中的qwen2或phi3)可正常加载;
- Agent调度器能正确解析指令;
- 基础文本生成流程无阻塞。
成功后,你已经跨过了最关键的门槛。
3. 如何跟 AI 助手对话
3.1 终端直连:最轻量的交互方式
这是调试和快速验证的首选方式,无需任何外部应用配合。
日常问答与任务执行
# 问天气(注意:需提前配置联网插件或使用支持联网的模型)
node dist/index.js agent --agent main --message "北京今天最高气温多少度?"
# 写代码(实测可用)
node dist/index.js agent --agent main --message "写一个Python函数,接收文件路径,统计其中英文单词出现频次,结果按降序排列"
# 总结长文本(粘贴内容前加说明)
node dist/index.js agent --agent main --message "请总结以下会议纪要:[在此粘贴完整文字]"
控制思考深度:从“秒回”到“深思熟虑”
AI不是越慢越好,而是要匹配任务复杂度。Clawdbot提供五档思考强度调节:
# 极简模式:适合确认类问题(1秒内响应)
node dist/index.js agent --agent main --message "1+1等于几?" --thinking minimal
# 高阶模式:适合架构设计、多步推理(响应时间约15–45秒)
node dist/index.js agent --agent main --message "设计一个支持千万级用户的短链接系统,要求高并发、低延迟、可追溯" --thinking high
| 思考级别 | 典型场景 | 平均响应时间 | 推荐模型 |
|---|---|---|---|
off |
回复固定话术 | <0.5秒 | 任意 |
minimal |
闲聊、简单计算 | 0.5–2秒 | qwen2:0.5b, phi3:3.8b |
low |
文案润色、邮件起草 | 2–5秒 | phi3:3.8b, llama3.1:8b |
medium |
技术解释、逻辑推演 | 5–15秒 | llama3.1:8b, qwen2:7b |
high |
系统设计、代码生成、多轮创作 | 15–60秒 | qwen2:7b, llama3.2 |
实测建议:日常使用推荐
--thinking low;遇到技术难题再切至high。避免长期使用high模式导致响应卡顿。
获取结构化输出:让AI为程序服务
当你要把AI结果接入其他工具时,JSON格式比纯文本更可靠:
node dist/index.js agent --agent main --message "列出中国五大一线城市及2023年GDP(单位:万亿元)" --json
输出将严格遵循JSON Schema,字段名统一、数值类型明确,可直接被Python、Node.js等脚本解析。
3.2 通讯软件接入:让AI走进真实工作场景
Telegram 配置全流程(含BotFather图文指引)
这是本教程重点——手把手带你完成Telegram机器人创建与Token注入。
第一步:在Telegram中创建机器人
- 打开Telegram App或网页版,搜索
@BotFather - 点击进入后发送
/newbot - BotFather会提示你输入机器人名称(显示在聊天列表中,如“Clawdbot助手”)
- 接着输入用户名(必须以
bot结尾,如clawdbot_zh_bot,全局唯一) - 创建成功后,BotFather会返回一串形如
1234567890:ABCdefGHIjklMNOpqrsTUVwxyz的Token —— 这就是你的机器人密钥,请立即复制保存!
安全提醒:此Token等同于密码,切勿截图、上传或泄露。一旦怀疑泄露,立即在BotFather中发送
/revoke重置。
第二步:在服务器注入Token
回到你的Linux终端:
cd /root/clawdbot
node dist/index.js telegram pair
此时终端会提示:Please paste your bot token:
将刚才复制的Token粘贴进去,回车。
若看到 Telegram bot configured successfully!,说明已绑定成功。
第三步:验证连接
- 在Telegram中搜索你刚创建的机器人用户名(如
@clawdbot_zh_bot) - 点击进入,发送任意消息(如“/start”或“你好”)
- 几秒后,你应该收到AI的中文回复
至此,Telegram通道已打通。后续所有消息都会经由Clawdbot网关转发至本地模型处理,再将结果原路返回。
企业微信接入(汉化版专属)
Clawdbot汉化版新增企业微信网关,适配国内办公环境:
# 启动企业微信配置向导
cd /root/clawdbot
node dist/index.js wecom pair
按提示操作:
- 扫描二维码登录企业微信管理后台
- 创建「自建应用」,获取
CorpID和Secret - 将
AgentId和Token填入终端提示栏 - 完成后,在企微工作台添加该应用,成员即可发起对话
相比Telegram,企业微信支持组织架构同步、审批流集成、敏感词过滤等政企级功能,更适合团队协同场景。
3.3 网页控制台:可视化操作中心
对于不熟悉命令行的用户,Clawdbot提供简洁的Web界面:
- 在浏览器中访问
http://你的服务器IP:18789 - 输入网关令牌:
dev-test-token(默认,可在/root/.clawdbot/clawdbot.json中修改) - 进入聊天窗口,直接输入消息,实时查看AI回复
界面左侧可切换不同Agent(主助手、代码专家、文档摘要员等),右侧显示当前会话ID、思考模式、模型名称等元信息。所有操作均同步至本地配置,无需重启服务。
4. 连接微信/WhatsApp/Telegram
4.1 Telegram深度配置技巧
除了基础配对,还可进一步优化体验:
设置欢迎消息与命令菜单
编辑配置文件启用Bot命令:
nano /root/.clawdbot/clawdbot.json
在telegram节点下添加:
"commands": [
{ "command": "help", "description": "显示帮助信息" },
{ "command": "model", "description": "查看当前模型" },
{ "command": "reset", "description": "清除本次会话记忆" }
]
保存后执行 bash /root/restart-gateway.sh 生效。用户在Telegram中输入/help即可触发AI返回定制化帮助文案。
实现群组智能助理
Clawdbot支持在Telegram群组中作为管理员运行:
- 将机器人添加进目标群组
- 在群设置中开启「允许机器人发消息」权限
- 发送
/ask 今天的新闻摘要,AI将仅响应带/ask前缀的消息,避免刷屏
实测效果:在500人技术群中部署后,成员平均每天调用AI 12.7次,主要用于查文档、解报错、写SQL。
5. 常用问题解决
5.1 服务未启动:三步定位法
| 现象 | 检查项 | 解决命令 |
|---|---|---|
command not found |
Node.js或pnpm未安装 | curl -fsSL https://get.pnpm.io/install.sh | sh -s - |
Cannot find module |
依赖未安装 | cd /root/clawdbot && pnpm install |
EADDRINUSE: address already in use |
端口被占 | sudo lsof -i :18789 | awk '{print $2}' | tail -n +2 | xargs kill -9 |
最常用的一键修复:
bash /root/start-clawdbot.sh && sleep 5 && ps aux \| grep clawdbot
5.2 AI响应慢:模型与硬件协同优化
响应延迟主要来自两方面:模型体积过大、显存/内存不足。
诊断命令:
# 查看当前模型
cat /root/.clawdbot/clawdbot.json | grep "primary.*model" -A 1
# 查看GPU显存占用(NVIDIA)
nvidia-smi --query-gpu=memory.used,memory.total --format=csv
# 查看内存占用
free -h
优化方案:
- 若显存<6GB:换用
ollama/qwen2:0.5b(仅需1.2GB显存) - 若CPU为主力:启用
--cpu-only参数强制CPU推理 - 若内存紧张:在
clawdbot.json中设置"cache": false关闭KV缓存
实测数据:在4核8G的云服务器上,qwen2:0.5b平均响应时间2.3秒,llama3.1:8b达18.7秒。
5.3 修改AI人设:从“工具”变成“伙伴”
Clawdbot的人设文件是其灵魂所在。编辑:
nano /root/clawd/IDENTITY.md
一个专业但不失温度的销售助手示例:
- Name: 小张
- Role: B2B企业服务顾问
- Vibe: 专业、务实、略带幽默感
- Knowledge: SaaS产品、CRM实施、数据安全合规
- Response Style: 先给结论,再分点说明,每点不超过2行
- Emoji:
- Avatar: /root/clawd/avatars/zhang.png
保存后执行 bash /root/restart-gateway.sh,AI将按新设定风格应答。
进阶技巧:可为不同渠道配置不同人设。例如Telegram用“技术极客风”,企业微信用“商务顾问风”,通过
--channel参数动态加载。
6. 更新和升级
6.1 版本升级:保持功能前沿
Clawdbot采用Git版本管理,升级只需三步:
cd /root/clawdbot
git pull origin main # 拉取最新代码
pnpm install # 安装新依赖
pnpm build # 重新编译
bash /root/restart-gateway.sh # 重启服务
升级后可通过以下命令验证:
node dist/index.js --version # 应显示 v2.4.0 或更高
温馨提示:升级前建议先备份配置
cp -r /root/.clawdbot /root/.clawdbot.bak
6.2 模型热切换:无需停机更换大脑
Clawdbot支持运行时切换模型,业务零中断:
# 查看已安装模型
ollama list
# 下载新模型(后台静默进行)
ollama pull qwen2:7b
# 立即生效(无需重启)
node dist/index.js config set agents.defaults.model.primary ollama/qwen2:7b
切换后首次请求稍慢(需加载权重),后续即恢复常态。实测从qwen2:0.5b切至qwen2:7b,响应质量提升明显,尤其在长文本理解与代码生成上。
7. 高级技巧
7.1 快捷命令:把常用操作变成一句话
编辑Shell配置,让效率翻倍:
echo 'alias ai="cd /root/clawdbot && node dist/index.js agent --agent main --message"' >> ~/.bashrc
echo 'alias aig="cd /root/clawdbot && node dist/index.js agent --agent main --message \"\$1\" --thinking high"' >> ~/.bashrc
source ~/.bashrc
之后只需:
ai "总结这篇论文"→ 快速响应aig "设计微服务鉴权方案"→ 深度思考
7.2 多轮会话:让AI真正记住你
Clawdbot默认开启会话记忆,但需正确使用:
# 方式一:显式指定会话ID(适合脚本调用)
SESSION_ID=$(uuidgen)
node dist/index.js agent --agent main --session-id $SESSION_ID --message "我公司叫星辰科技"
node dist/index.js agent --agent main --session-id $SESSION_ID --message "我们主营什么?"
# 方式二:隐式关联(推荐日常使用)
node dist/index.js agent --agent main --to "@your_telegram_username" --message "我是产品经理"
# 后续所有发给该账号的消息,AI都会关联此身份
会话数据存储在 /root/.clawdbot/agents/main/sessions/,按日期分片,支持手动清理或归档。
8. 总结
Clawdbot汉化版不是简单的翻译工程,而是一次面向中文用户工作习惯的深度重构。它把“模型私有化”这个技术概念,转化成了可感知的价值:
- 在企业微信里,销售同事用自然语言生成客户提案,不再依赖PPT模板;
- 在Telegram技术群中,新人提问自动获得带代码片段的解答,老手省去重复答疑;
- 在个人终端上,你拥有一个永远在线、永不遗忘、持续进化的AI搭档。
从BotFather创建机器人,到Token注入、人设定制、模型切换,整个流程已打磨至“复制粘贴即可运行”。真正的门槛不在技术,而在于你想让AI帮你解决什么问题。
现在,就打开终端,输入第一条命令吧——你的AI助手,已在等待唤醒。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
更多推荐

所有评论(0)