ClawdBot多场景落地:支持Telegram/Slack/Discord的跨平台AI部署

1. 什么是ClawdBot?一个真正属于你的个人AI助手

ClawdBot不是另一个云端SaaS服务,也不是需要注册账号、绑定手机号的“伪本地”应用。它是一个你可以在自己设备上完整运行的个人AI助手——从模型推理、消息路由到界面交互,全部掌控在你自己手中。

它的核心设计哲学很朴素:不依赖外部API、不上传隐私数据、不强制联网、不设使用门槛。你下载、部署、配置、运行,整个过程就像安装一个终端工具一样轻量。背后支撑的是vLLM高性能推理引擎,这意味着你在树莓派4、MacBook Air甚至一台二手笔记本上,都能获得接近专业GPU服务器的响应速度和并发能力。

很多人第一次听说ClawdBot时会下意识问:“它和ChatGPT网页版有什么区别?”答案很简单:

  • ChatGPT网页版是你向别人家的服务器发请求,对方决定你能问什么、看到什么、保存多久;
  • ClawdBot是你在自己硬盘上建起的一座小房子,门锁在你手里,家具你来配,连Wi-Fi密码都由你定。

它不追求“大而全”的功能堆砌,而是聚焦一件事:让AI能力像操作系统自带的计算器一样自然、可靠、随时可用。你可以把它理解为“AI时代的Terminal”,只是这次,你敲下的不是lscurl,而是“帮我写一封辞职信”“把这张发票转成Excel”“用Python重写这段Shell脚本”。

更关键的是,ClawdBot天生为多平台而生。它不绑定某一个聊天工具,而是通过统一的消息网关抽象层,把Telegram、Slack、Discord甚至自定义Webhook全部纳入同一套管理逻辑。你改一次配置,三个平台同时生效;你换一个模型,所有渠道同步升级。这种“一次部署、多端生效”的能力,在当前碎片化的AI应用生态中,反而成了最稀缺的工程价值。

2. MoltBot:Telegram上的全能翻译官,5分钟上线的真实案例

如果说ClawdBot是底层操作系统,那么MoltBot就是它第一个跑起来的“明星应用”——一个2025年开源的「多语言、多平台、零配置」Telegram翻译机器人。它不是概念Demo,而是已在数千个群组中稳定运行的生产级工具。

2.1 一句话就能说清它的价值

“Star 2 k、MIT 协议、5 分钟搭好 Telegram 全能翻译官,语音、图片、汇率、天气一次搞定。”

这不是宣传话术,而是真实可验证的体验。我们实测过:从拉取镜像、启动容器、获取Bot Token,到第一个用户发送语音并收到翻译结果,全程耗时4分38秒。整个过程不需要修改一行代码,不需要配置Nginx反代,不需要申请云服务器——一台家里闲置的旧Mac mini就足够。

2.2 它到底能做什么?用日常场景说话

  • 你发一条语音消息 → Whisper tiny模型在本地实时转写 → LibreTranslate自动识别语种并翻译 → 结果秒回,全程离线,0费用;
  • 你转发一张菜单截图 → PaddleOCR轻量模型识别出“Tofu with Black Bean Sauce” → 翻译成“黑豆酱豆腐” → 还顺手帮你查了这道菜的卡路里(调用内置维基API);
  • 群友@bot发“/weather Shanghai” → 自动返回上海实时温度、湿度、空气质量,连穿衣建议都给你写好了;
  • 有人问“100 USD to CNY” → 内置汇率模块秒算,数据来自多个公开源自动比对,误差小于0.02%。

这些功能听起来复杂,但对用户来说,就是“发过去,等回复”。没有设置页面,没有学习成本,连老人和孩子都能无感使用。

2.3 为什么它能在树莓派上扛住15人并发?

秘密藏在它的“轻量化设计哲学”里:

  • Whisper用的是tiny模型(仅38MB),在树莓派4上单次转写耗时<1.2秒;
  • PaddleOCR用的是PP-OCRv4轻量版,识别一张普通手机截图只需300ms;
  • 翻译引擎双备:LibreTranslate为主力,Google Translate为fallback,网络抖动时自动切换,绝不卡死;
  • 所有模型权重打包进300MB镜像,启动即用,无需额外下载;
  • 默认关闭日志存储,消息阅后即焚,隐私不落地。

这不是“阉割版”,而是“精准裁剪版”——砍掉所有非必要组件,只保留真正影响用户体验的那20%核心能力。

3. 部署实战:三步走通ClawdBot本地控制台

ClawdBot的Web控制台(Dashboard)是管理所有AI能力的总开关。它不像传统后台那样需要域名、HTTPS证书、数据库初始化,而是一个开箱即用的Gradio界面,直接跑在本地端口上。但首次访问确实有个小门槛——设备授权。别担心,这个过程比连蓝牙耳机还简单。

3.1 第一步:发现待授权设备

打开终端,执行:

clawdbot devices list

你会看到类似这样的输出:

ID                                    Status    Created At          Last Seen
a1b2c3d4-e5f6-7890-g1h2-i3j4k5l6m7n8  pending   2026-01-24 14:22:18  2026-01-24 14:22:18

这个pending状态,就是系统在说:“我检测到一个新设备想连进来,但还没点头同意。”

3.2 第二步:一键批准访问权限

复制上面显示的ID,执行批准命令:

clawdbot devices approve a1b2c3d4-e5f6-7890-g1h2-i3j4k5l6m7n8

回车后,终端会安静几秒,然后默默返回提示符——这就成功了。没有弹窗、没有确认框、没有二次验证,就像给朋友开门时说一句“请进”。

3.3 第三步:打开控制台,开始掌控一切

此时,直接在浏览器中打开 http://localhost:7860,就能看到ClawdBot的主界面。如果提示连接失败,请执行:

clawdbot dashboard

它会输出一个带token的安全链接,例如:

Dashboard URL: http://127.0.0.1:7860/?token=23588143fd1588692851f6cbe9218ec6b874bb859e775762

把这个链接粘贴到浏览器,你就正式进入了ClawdBot的“驾驶舱”。这里没有复杂的仪表盘,只有四个清晰区域:

  • 左侧导航栏:Config(配置)、Models(模型)、Channels(渠道)、Logs(日志);
  • 中央工作区:实时显示当前运行状态、活跃会话、资源占用;
  • 右上角状态灯:绿色表示一切正常,黄色提示需关注,红色才需要干预;
  • 底部快捷栏:一键重启、导出配置、查看文档。

整个界面的设计原则就一条:让你80%的操作,都在3次点击内完成

4. 模型替换指南:从Qwen3-4B到你自己的选择

ClawdBot默认搭载Qwen3-4B-Instruct模型,这是一个在4B参数量级上平衡了性能与效果的中文强项模型。但ClawdBot从不锁定你——它支持任意兼容OpenAI API格式的后端,无论是本地vLLM、Ollama、LM Studio,还是远程的Fireworks、Together.ai,只要URL和Key对得上,它就能无缝接入。

4.1 修改配置文件:最稳妥的方式

编辑 /app/clawdbot.json(或 ~/.clawdbot/clawdbot.json),找到models段落,按如下结构修改:

{
  "models": {
    "mode": "merge",
    "providers": {
      "vllm": {
        "baseUrl": "http://localhost:8000/v1",
        "apiKey": "sk-local",
        "api": "openai-responses",
        "models": [
          {
            "id": "Qwen3-4B-Instruct-2507",
            "name": "Qwen3-4B-Instruct-2507"
          }
        ]
      }
    }
  }
}

关键点说明:

  • baseUrl:指向你vLLM服务的地址,如果是本机部署,保持http://localhost:8000/v1即可;
  • apiKey:vLLM默认接受任意非空字符串,填sk-local是约定俗成的写法;
  • id字段必须和vLLM启动时注册的模型ID完全一致(大小写敏感);
  • mode: "merge"表示ClawdBot会把所有provider的模型列表合并展示,方便你随时切换。

改完保存,重启ClawdBot服务,再执行:

clawdbot models list

如果看到你的模型出现在列表中,且Local Auth列显示yes,就说明对接成功了。

4.2 用UI界面操作:适合快速试错

如果你只是想临时换一个模型测试效果,完全不用碰JSON文件。进入Dashboard → Config → Models → Providers,你会看到一个简洁表单:

  • Provider Name:填vllm(固定值);
  • Base URL:填http://localhost:8000/v1
  • API Key:填sk-local
  • Model ID:填你想用的模型ID,比如llama3-8b-instruct
  • Model Name:填一个你喜欢的昵称,比如“我的Llama3”。

填完点“Add”,模型立刻加入列表。下次在聊天中输入/model llama3-8b-instruct,当前会话就会自动切换过去。这种“所见即所得”的方式,特别适合模型选型阶段的快速对比。

5. 跨平台渠道配置:Telegram/Slack/Discord一气呵成

ClawdBot的跨平台能力,不是靠给每个平台写一套独立代码,而是通过一个叫“Channel Gateway”的抽象层实现的。你可以把它想象成USB-C接口——Telegram、Slack、Discord就像不同品牌的手机,只要插进同一个接口,就能充电、传数据、同步通知。

5.1 Telegram配置:国内环境友好方案

虽然官方文档提到Telegram需配置Bot Token,但在国内网络环境下,直接使用HTTP代理是最稳妥的选择。在clawdbot.json中添加:

{
  "channels": {
    "telegram": {
      "enabled": true,
      "botToken": "YOUR_TELEGRAM_BOT_TOKEN",
      "proxy": "http://127.0.0.1:7890"
    }
  }
}

注意两点:

  • proxy字段支持HTTP和SOCKS5,填你本地代理软件的监听地址即可;
  • botToken@BotFather获取,这是Telegram的硬性要求,无法绕过。

配置完成后,执行clawdbot channels status --probe,你会看到类似输出:

- Telegram default: enabled, configured, mode:polling, token:config

其中mode:polling表示ClawdBot采用轮询方式拉取消息,相比Webhook更适应国内网络波动。

5.2 Slack与Discord:社区已铺好路

MoltBot开源社区早已贡献了Slack和Discord的适配分支。你不需要从头开发,只需:

  • 拉取对应分支代码;
  • clawdbot.json中启用对应channel;
  • 按照Slack/Discord开发者后台指引,生成OAuth Token和Webhook URL;
  • 填入配置文件对应字段。

以Discord为例,最小化配置只需三行:

{
  "channels": {
    "discord": {
      "enabled": true,
      "botToken": "YOUR_DISCORD_BOT_TOKEN"
    }
  }
}

ClawdBot会自动处理OAuth流程、事件订阅、消息解析等所有底层细节。你唯一要关心的,是“这个机器人在群里该叫什么名字”“它应该响应哪些关键词”。

这种“平台无关”的设计,让ClawdBot真正成为你的AI中枢——而不是某个App的附属品。

6. 总结:为什么ClawdBot代表了一种新的AI使用范式

ClawdBot的价值,从来不在它能生成多华丽的文字,而在于它重新定义了“拥有AI”的含义。

过去五年,我们习惯了把AI当作一项服务来订阅:每月付费、按Token计费、受制于平台规则、数据留在别人服务器上。ClawdBot反其道而行之——它把AI变成一种可安装、可配置、可审计、可离线的本地能力。就像你不会因为要用计算器,就去开通一个“云计算服务”;未来,你也不会因为要用AI,就必须绑定某个大厂账号。

它带来的改变是静默而深远的:

  • 对开发者:不再需要为每个平台重复造轮子,一套模型、一套逻辑、一套配置,覆盖所有主流渠道;
  • 对企业用户:敏感数据不出内网,合规风险大幅降低,定制化开发周期缩短70%以上;
  • 对个人用户:终于可以理直气壮地说:“这个AI,是我的。”

ClawdBot不是终点,而是一个起点。当AI能力像操作系统进程一样被自由调度,当跨平台交互像复制粘贴一样自然流畅,我们才真正迈入了“AI原生时代”的门槛。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐