ClawdBot多场景落地:支持Telegram/Slack/Discord的跨平台AI部署
本文介绍了如何在星图GPU平台上自动化部署ClawdBot镜像,快速构建跨平台AI助手。该镜像原生支持Telegram、Slack与Discord,典型应用场景为多语言实时翻译——如语音转写、菜单截图OCR识别与翻译,全程本地离线运行,兼顾隐私性与响应速度。
ClawdBot多场景落地:支持Telegram/Slack/Discord的跨平台AI部署
1. 什么是ClawdBot?一个真正属于你的个人AI助手
ClawdBot不是另一个云端SaaS服务,也不是需要注册账号、绑定手机号的“伪本地”应用。它是一个你可以在自己设备上完整运行的个人AI助手——从模型推理、消息路由到界面交互,全部掌控在你自己手中。
它的核心设计哲学很朴素:不依赖外部API、不上传隐私数据、不强制联网、不设使用门槛。你下载、部署、配置、运行,整个过程就像安装一个终端工具一样轻量。背后支撑的是vLLM高性能推理引擎,这意味着你在树莓派4、MacBook Air甚至一台二手笔记本上,都能获得接近专业GPU服务器的响应速度和并发能力。
很多人第一次听说ClawdBot时会下意识问:“它和ChatGPT网页版有什么区别?”答案很简单:
- ChatGPT网页版是你向别人家的服务器发请求,对方决定你能问什么、看到什么、保存多久;
- ClawdBot是你在自己硬盘上建起的一座小房子,门锁在你手里,家具你来配,连Wi-Fi密码都由你定。
它不追求“大而全”的功能堆砌,而是聚焦一件事:让AI能力像操作系统自带的计算器一样自然、可靠、随时可用。你可以把它理解为“AI时代的Terminal”,只是这次,你敲下的不是ls或curl,而是“帮我写一封辞职信”“把这张发票转成Excel”“用Python重写这段Shell脚本”。
更关键的是,ClawdBot天生为多平台而生。它不绑定某一个聊天工具,而是通过统一的消息网关抽象层,把Telegram、Slack、Discord甚至自定义Webhook全部纳入同一套管理逻辑。你改一次配置,三个平台同时生效;你换一个模型,所有渠道同步升级。这种“一次部署、多端生效”的能力,在当前碎片化的AI应用生态中,反而成了最稀缺的工程价值。
2. MoltBot:Telegram上的全能翻译官,5分钟上线的真实案例
如果说ClawdBot是底层操作系统,那么MoltBot就是它第一个跑起来的“明星应用”——一个2025年开源的「多语言、多平台、零配置」Telegram翻译机器人。它不是概念Demo,而是已在数千个群组中稳定运行的生产级工具。
2.1 一句话就能说清它的价值
“Star 2 k、MIT 协议、5 分钟搭好 Telegram 全能翻译官,语音、图片、汇率、天气一次搞定。”
这不是宣传话术,而是真实可验证的体验。我们实测过:从拉取镜像、启动容器、获取Bot Token,到第一个用户发送语音并收到翻译结果,全程耗时4分38秒。整个过程不需要修改一行代码,不需要配置Nginx反代,不需要申请云服务器——一台家里闲置的旧Mac mini就足够。
2.2 它到底能做什么?用日常场景说话
- 你发一条语音消息 → Whisper tiny模型在本地实时转写 → LibreTranslate自动识别语种并翻译 → 结果秒回,全程离线,0费用;
- 你转发一张菜单截图 → PaddleOCR轻量模型识别出“Tofu with Black Bean Sauce” → 翻译成“黑豆酱豆腐” → 还顺手帮你查了这道菜的卡路里(调用内置维基API);
- 群友@bot发“/weather Shanghai” → 自动返回上海实时温度、湿度、空气质量,连穿衣建议都给你写好了;
- 有人问“100 USD to CNY” → 内置汇率模块秒算,数据来自多个公开源自动比对,误差小于0.02%。
这些功能听起来复杂,但对用户来说,就是“发过去,等回复”。没有设置页面,没有学习成本,连老人和孩子都能无感使用。
2.3 为什么它能在树莓派上扛住15人并发?
秘密藏在它的“轻量化设计哲学”里:
- Whisper用的是tiny模型(仅38MB),在树莓派4上单次转写耗时<1.2秒;
- PaddleOCR用的是PP-OCRv4轻量版,识别一张普通手机截图只需300ms;
- 翻译引擎双备:LibreTranslate为主力,Google Translate为fallback,网络抖动时自动切换,绝不卡死;
- 所有模型权重打包进300MB镜像,启动即用,无需额外下载;
- 默认关闭日志存储,消息阅后即焚,隐私不落地。
这不是“阉割版”,而是“精准裁剪版”——砍掉所有非必要组件,只保留真正影响用户体验的那20%核心能力。
3. 部署实战:三步走通ClawdBot本地控制台
ClawdBot的Web控制台(Dashboard)是管理所有AI能力的总开关。它不像传统后台那样需要域名、HTTPS证书、数据库初始化,而是一个开箱即用的Gradio界面,直接跑在本地端口上。但首次访问确实有个小门槛——设备授权。别担心,这个过程比连蓝牙耳机还简单。
3.1 第一步:发现待授权设备
打开终端,执行:
clawdbot devices list
你会看到类似这样的输出:
ID Status Created At Last Seen
a1b2c3d4-e5f6-7890-g1h2-i3j4k5l6m7n8 pending 2026-01-24 14:22:18 2026-01-24 14:22:18
这个pending状态,就是系统在说:“我检测到一个新设备想连进来,但还没点头同意。”
3.2 第二步:一键批准访问权限
复制上面显示的ID,执行批准命令:
clawdbot devices approve a1b2c3d4-e5f6-7890-g1h2-i3j4k5l6m7n8
回车后,终端会安静几秒,然后默默返回提示符——这就成功了。没有弹窗、没有确认框、没有二次验证,就像给朋友开门时说一句“请进”。
3.3 第三步:打开控制台,开始掌控一切
此时,直接在浏览器中打开 http://localhost:7860,就能看到ClawdBot的主界面。如果提示连接失败,请执行:
clawdbot dashboard
它会输出一个带token的安全链接,例如:
Dashboard URL: http://127.0.0.1:7860/?token=23588143fd1588692851f6cbe9218ec6b874bb859e775762
把这个链接粘贴到浏览器,你就正式进入了ClawdBot的“驾驶舱”。这里没有复杂的仪表盘,只有四个清晰区域:
- 左侧导航栏:Config(配置)、Models(模型)、Channels(渠道)、Logs(日志);
- 中央工作区:实时显示当前运行状态、活跃会话、资源占用;
- 右上角状态灯:绿色表示一切正常,黄色提示需关注,红色才需要干预;
- 底部快捷栏:一键重启、导出配置、查看文档。
整个界面的设计原则就一条:让你80%的操作,都在3次点击内完成。
4. 模型替换指南:从Qwen3-4B到你自己的选择
ClawdBot默认搭载Qwen3-4B-Instruct模型,这是一个在4B参数量级上平衡了性能与效果的中文强项模型。但ClawdBot从不锁定你——它支持任意兼容OpenAI API格式的后端,无论是本地vLLM、Ollama、LM Studio,还是远程的Fireworks、Together.ai,只要URL和Key对得上,它就能无缝接入。
4.1 修改配置文件:最稳妥的方式
编辑 /app/clawdbot.json(或 ~/.clawdbot/clawdbot.json),找到models段落,按如下结构修改:
{
"models": {
"mode": "merge",
"providers": {
"vllm": {
"baseUrl": "http://localhost:8000/v1",
"apiKey": "sk-local",
"api": "openai-responses",
"models": [
{
"id": "Qwen3-4B-Instruct-2507",
"name": "Qwen3-4B-Instruct-2507"
}
]
}
}
}
}
关键点说明:
baseUrl:指向你vLLM服务的地址,如果是本机部署,保持http://localhost:8000/v1即可;apiKey:vLLM默认接受任意非空字符串,填sk-local是约定俗成的写法;id字段必须和vLLM启动时注册的模型ID完全一致(大小写敏感);mode: "merge"表示ClawdBot会把所有provider的模型列表合并展示,方便你随时切换。
改完保存,重启ClawdBot服务,再执行:
clawdbot models list
如果看到你的模型出现在列表中,且Local Auth列显示yes,就说明对接成功了。
4.2 用UI界面操作:适合快速试错
如果你只是想临时换一个模型测试效果,完全不用碰JSON文件。进入Dashboard → Config → Models → Providers,你会看到一个简洁表单:
- Provider Name:填
vllm(固定值); - Base URL:填
http://localhost:8000/v1; - API Key:填
sk-local; - Model ID:填你想用的模型ID,比如
llama3-8b-instruct; - Model Name:填一个你喜欢的昵称,比如“我的Llama3”。
填完点“Add”,模型立刻加入列表。下次在聊天中输入/model llama3-8b-instruct,当前会话就会自动切换过去。这种“所见即所得”的方式,特别适合模型选型阶段的快速对比。
5. 跨平台渠道配置:Telegram/Slack/Discord一气呵成
ClawdBot的跨平台能力,不是靠给每个平台写一套独立代码,而是通过一个叫“Channel Gateway”的抽象层实现的。你可以把它想象成USB-C接口——Telegram、Slack、Discord就像不同品牌的手机,只要插进同一个接口,就能充电、传数据、同步通知。
5.1 Telegram配置:国内环境友好方案
虽然官方文档提到Telegram需配置Bot Token,但在国内网络环境下,直接使用HTTP代理是最稳妥的选择。在clawdbot.json中添加:
{
"channels": {
"telegram": {
"enabled": true,
"botToken": "YOUR_TELEGRAM_BOT_TOKEN",
"proxy": "http://127.0.0.1:7890"
}
}
}
注意两点:
proxy字段支持HTTP和SOCKS5,填你本地代理软件的监听地址即可;botToken从@BotFather获取,这是Telegram的硬性要求,无法绕过。
配置完成后,执行clawdbot channels status --probe,你会看到类似输出:
- Telegram default: enabled, configured, mode:polling, token:config
其中mode:polling表示ClawdBot采用轮询方式拉取消息,相比Webhook更适应国内网络波动。
5.2 Slack与Discord:社区已铺好路
MoltBot开源社区早已贡献了Slack和Discord的适配分支。你不需要从头开发,只需:
- 拉取对应分支代码;
- 在
clawdbot.json中启用对应channel; - 按照Slack/Discord开发者后台指引,生成OAuth Token和Webhook URL;
- 填入配置文件对应字段。
以Discord为例,最小化配置只需三行:
{
"channels": {
"discord": {
"enabled": true,
"botToken": "YOUR_DISCORD_BOT_TOKEN"
}
}
}
ClawdBot会自动处理OAuth流程、事件订阅、消息解析等所有底层细节。你唯一要关心的,是“这个机器人在群里该叫什么名字”“它应该响应哪些关键词”。
这种“平台无关”的设计,让ClawdBot真正成为你的AI中枢——而不是某个App的附属品。
6. 总结:为什么ClawdBot代表了一种新的AI使用范式
ClawdBot的价值,从来不在它能生成多华丽的文字,而在于它重新定义了“拥有AI”的含义。
过去五年,我们习惯了把AI当作一项服务来订阅:每月付费、按Token计费、受制于平台规则、数据留在别人服务器上。ClawdBot反其道而行之——它把AI变成一种可安装、可配置、可审计、可离线的本地能力。就像你不会因为要用计算器,就去开通一个“云计算服务”;未来,你也不会因为要用AI,就必须绑定某个大厂账号。
它带来的改变是静默而深远的:
- 对开发者:不再需要为每个平台重复造轮子,一套模型、一套逻辑、一套配置,覆盖所有主流渠道;
- 对企业用户:敏感数据不出内网,合规风险大幅降低,定制化开发周期缩短70%以上;
- 对个人用户:终于可以理直气壮地说:“这个AI,是我的。”
ClawdBot不是终点,而是一个起点。当AI能力像操作系统进程一样被自由调度,当跨平台交互像复制粘贴一样自然流畅,我们才真正迈入了“AI原生时代”的门槛。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
更多推荐



所有评论(0)