ClawdBot隐私优先设计:不存储消息的AI助手搭建教程

导读:你是否担心聊天记录被上传、模型调用留下痕迹、AI助手悄悄记住你的每一句话?ClawdBot 不是另一个云端黑盒,而是一个真正属于你自己的、运行在本地设备上的 AI 助手——它默认不存储任何用户消息,所有推理在本地完成,连日志都可设为“阅后即焚”。本文将手把手带你从零部署一个真正隐私可控的 AI 助手,全程无需注册、不传数据、不依赖外部 API,5 分钟完成,10 分钟就能开始安心对话。(基于 ClawdBot 2026.1.24-3 版本实测)


1. 为什么需要“不存储消息”的AI助手?

1.1 当前AI助手的隐性风险

市面上大多数 AI 助手(包括网页版、App、甚至部分本地化工具)存在三类隐蔽但关键的数据风险:

  • 消息缓存不可控:用户输入的文字、图片、语音,在传输、处理、响应过程中可能被临时写入内存、磁盘日志或调试缓存,重启后仍残留;
  • 会话上下文持久化:为实现“连续对话”,系统常将历史消息自动保存至数据库或 JSON 文件,即使你没主动点击“保存”;
  • 模型层无感知透传:部分本地封装工具仅代理请求到远程模型服务(如 OpenAI、Claude),用户消息实际已离开设备。

这些行为未必出于恶意,但与“隐私优先”原则相悖——你有权决定自己的数据是否留存、留存多久、以何种形式存在。

1.2 ClawdBot 的隐私设计锚点

ClawdBot 将“不存储”作为默认行为而非可选开关,其核心隐私机制体现在三个层面:

层级 默认行为 可配置性 技术说明
消息生命周期 输入即处理,响应即丢弃;不写入任何持久化存储 可开启 ephemeral: true 强制内存级销毁 所有用户消息仅驻留于 vLLM 请求队列中,响应返回后立即 GC
日志记录 仅记录启动/错误事件,不记录任何用户输入、模型输出、对话内容 可关闭全部日志(logLevel: "none" 日志路径 /app/logs/ 下无 messages.logchat_history.json 类文件
模型交互 后端完全由本地 vLLM 提供,不调用任何外部模型 API 不支持远程模型代理(避免意外透传) 模型加载路径为 vllm/Qwen3-4B-Instruct-2507,运行于 http://localhost:8000/v1

这不是“承诺不作恶”,而是架构上无法作恶——没有存储位置,就没有泄露可能。


2. 一键部署:5分钟跑起你的私人AI助手

2.1 环境准备(极简要求)

ClawdBot 对硬件要求友好,实测可在以下环境稳定运行:

  • 最低配置:4 核 CPU + 16GB 内存 + 20GB 空闲磁盘(含模型缓存)
  • 推荐配置:8 核 CPU + 32GB 内存 + NVMe SSD(提升多并发响应速度)
  • 操作系统:Ubuntu 22.04 / Debian 12 / macOS Monterey+(Apple Silicon 原生支持)
  • 不支持:Windows(暂无 WSL 兼容优化)、树莓派(vLLM 未适配 ARM64 推理)

提示:无需 Python 环境、无需手动安装 CUDA、无需配置模型权重——所有依赖已打包进镜像。

2.2 三步启动命令(复制即用)

打开终端,依次执行以下命令(无需 root 权限):

# 1. 拉取镜像(约 1.2GB,首次需下载)
docker pull clawdbot/clawdbot:latest

# 2. 创建并启动容器(自动映射端口、挂载配置目录)
docker run -d \
  --name clawdbot \
  -p 7860:7860 \
  -p 8000:8000 \
  -v ~/.clawdbot:/app/workspace \
  -v ~/.clawdbot/config:/app/config \
  --restart=unless-stopped \
  clawdbot/clawdbot:latest

执行完成后,ClawdBot 已在后台运行。
注意:~/.clawdbot 是你本地的配置与工作目录,所有数据仅存于此,不会上传、不会同步、不会备份

2.3 首次访问与设备授权

ClawdBot 采用设备级鉴权机制,确保只有你授权的终端才能访问控制台:

# 查看待批准的设备请求(首次启动后自动生成)
clawdbot devices list

你会看到类似输出:

ID         Status     Created              IP Address
abc123...  pending    2026-01-24 14:22:05  192.168.1.100

执行批准命令(将 abc123... 替换为你的实际 ID):

clawdbot devices approve abc123...

完成后,打开浏览器访问:http://localhost:7860
若提示 token,运行 clawdbot dashboard 获取带 token 的链接(如 http://localhost:7860/?token=235881...

关键确认点:页面左下角显示 Privacy Mode: ONStorage: Local Only,即表示隐私模式已激活。


3. 隐私验证:亲眼确认“消息真的没被存”

3.1 实时检查消息存储路径

ClawdBot 的设计哲学是“所见即所得”。我们直接查看其工作目录,验证无消息残留:

# 进入配置目录
cd ~/.clawdbot

# 查看 workspace 下是否有聊天记录?
ls -la workspace/
# 输出示例:total 8
# drwxr-xr-x 2 work work 4096 Jan 24 14:25 .
# drwxr-xr-x 3 work work 4096 Jan 24 14:25 ..
# # → 空目录!无 chat_history、no messages、no logs

# 查看 config 目录下的配置文件
cat config/clawdbot.json | grep -A5 "privacy"

你会看到如下关键配置(默认启用):

"privacy": {
  "ephemeral": true,
  "logMessages": false,
  "disableHistory": true
}

ephemeral: true = 消息仅存活于内存,响应后立即释放
logMessages: false = 绝不记录用户输入与模型输出
disableHistory: true = 界面不保存对话历史(刷新即清空)

3.2 抓包验证:消息不出设备

使用 tcpdump 或 Wireshark 捕获本机网络流量(过滤 port 8000 or port 7860):

  • 发送一条测试消息:“今天天气怎么样?”
  • 观察抓包结果:仅有 localhost → localhost 的内部通信(vLLM 服务调用)
  • 无任何向外 DNS 查询、无 HTTPS 请求、无 IP 连接目标
  • 所有流量均在 127.0.0.1 内闭环完成

验证结论:ClawdBot 是真正的“离线优先”架构——模型推理、前端交互、状态管理全部发生在单设备内,物理上隔绝外部网络


4. 模型替换与轻量优化:让Qwen3-4B真正为你所用

4.1 为什么选 Qwen3-4B-Instruct-2507?

ClawdBot 默认集成 vllm/Qwen3-4B-Instruct-2507,该模型在隐私场景下具备三大优势:

  • 体积精悍:4B 参数量,显存占用仅 ~6GB(A10G),远低于 7B/13B 模型,降低本地运行门槛;
  • 指令对齐强:专为对话优化,对“不存储”“不记忆”“只回答当前问题”等指令理解准确;
  • 中文原生友好:无需翻译提示词,直接输入“帮我写一封辞职信”,即可生成专业、得体、符合中文职场语境的文本。

4.2 安全替换模型(不改代码、不重装)

ClawdBot 支持热更新模型配置,全程无需停机:

方法一:修改 JSON 配置(推荐)

编辑 ~/.clawdbot/config/clawdbot.json,定位 models.providers.vllm.models 数组:

{
  "models": {
    "providers": {
      "vllm": {
        "baseUrl": "http://localhost:8000/v1",
        "apiKey": "sk-local",
        "models": [
          {
            "id": "Qwen3-4B-Instruct-2507",
            "name": "Qwen3-4B-Instruct-2507",
            "quantization": "awq"  //  启用 AWQ 量化,显存再降 30%
          }
        ]
      }
    }
  }
}

保存后执行重载命令:

clawdbot models reload

控制台右上角提示 Models reloaded successfully,新配置即时生效。

方法二:UI 界面操作(零命令行)
  • 访问 http://localhost:7860 → 左侧菜单 Config → Models → Providers
  • vllm Provider 下点击 Edit
  • Model ID 字段改为 Qwen3-4B-Instruct-2507,勾选 Enable quantization (AWQ)
  • 点击 Save & Reload

注意:ClawdBot 不支持上传自定义模型文件。所有模型通过 Hugging Face Hub 自动拉取,路径固定为 vllm/{model_id},确保来源可信、过程可审计。

4.3 验证模型加载成功

执行命令确认模型已就绪:

clawdbot models list

输出应包含:

Model                                      Input      Ctx      Local Auth  Tags
vllm/Qwen3-4B-Instruct-2507                text       195k     yes   yes   default

Local Auth: yes 表示模型完全本地加载,未连接外部服务
Ctx: 195k 表示上下文长度达 195,000 tokens,足够处理长文档摘要、代码审查等任务


5. 日常使用指南:如何真正“放心对话”

5.1 界面操作:每一次对话都是干净的起点

ClawdBot Web UI 设计遵循“无痕交互”原则:

  • 无历史列表:左侧无“昨日对话”“最近会话”等栏目,每次打开均为全新空白页;
  • 无导出按钮:界面不提供“导出聊天记录”“保存为 Markdown”等功能,从源头杜绝误存;
  • 发送即销毁:点击发送后,输入框自动清空,且浏览器本地存储(localStorage)中不保存任何消息副本

使用建议:将 ClawdBot 作为“一次性问答工具”——问完即走,无需清理,因为本就不留痕迹。

5.2 高级隐私设置(按需开启)

如需进一步加固,可在 clawdbot.json 中添加以下配置:

"security": {
  "memoryWipe": true,        // 响应后强制清空内存缓冲区
  "disableTelemetry": true,  // 彻底禁用所有遥测(默认已关闭)
  "sandboxMode": true        // 启用严格沙箱,禁止模型访问文件系统
},
"privacy": {
  "ephemeral": true,
  "logMessages": false,
  "disableHistory": true,
  "autoPurgeInterval": "30s"  // 每30秒自动清理内存残留(推荐值)
}

🛡 效果:即使遭遇极端内存泄漏,30 秒后所有残留数据自动归零。

5.3 与 Telegram 等渠道联动的隐私提醒

ClawdBot 支持扩展频道(如 Telegram),但请注意

  • Telegram 配置需手动填写 botToken,该 Token 仅用于接收消息,ClawdBot 不会将其上传至任何服务器
  • 所有消息经 Telegram Bot API 到达本地后,立即进入 ephemeral 处理流,不落盘、不缓存、不转发
  • 若你在国内使用,建议搭配本地 SOCKS5 代理(如 Clash)配置 proxy 字段,确保流量不出境。

重要提醒:ClawdBot 本身不提供 Telegram 服务,仅作为消息处理器。Telegram 平台侧的数据政策由其官方制定,ClawdBot 仅保证自身处理环节零存储。


6. 总结:你掌控的,才是真正的AI助手

ClawdBot 不是一个功能堆砌的“全能机器人”,而是一把精准设计的“隐私钥匙”——它用最克制的架构,兑现了最根本的承诺:你的消息,只属于你。

  • 不存储:默认关闭所有消息持久化,无数据库、无日志、无缓存;
  • 不外传:vLLM 完全本地运行,无远程 API 调用,无第三方模型依赖;
  • 不记忆:每轮对话独立处理,上下文不跨请求保留,刷新即重置;
  • 可验证:所有配置开源可见,所有路径本地可查,所有流量本地可捕。

这并非技术炫技,而是对数字时代基本权利的回归:当 AI 成为日常工具,你理应拥有对它的完全主权。

现在,你已经拥有了这样一个助手。接下来,不需要学习复杂参数,不需要研究提示工程——只需打开 http://localhost:7860,输入第一个问题,然后安心等待答案。因为你知道,那个答案,只为你生成,也只为你存在。

---

> **获取更多AI镜像**
>
> 想探索更多AI镜像和应用场景?访问 [CSDN星图镜像广场](https://ai.csdn.net/?utm_source=mirror_blog_end),提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐