ClawdBot隐私优先设计:不存储消息的AI助手搭建教程
本文介绍了如何在星图GPU平台上自动化部署ClawdBot镜像,构建隐私优先的本地AI助手。该镜像默认不存储任何用户消息,所有推理在本地完成,适用于安全敏感场景下的即时问答、文档摘要与私密对话等典型应用。
ClawdBot隐私优先设计:不存储消息的AI助手搭建教程
导读:你是否担心聊天记录被上传、模型调用留下痕迹、AI助手悄悄记住你的每一句话?ClawdBot 不是另一个云端黑盒,而是一个真正属于你自己的、运行在本地设备上的 AI 助手——它默认不存储任何用户消息,所有推理在本地完成,连日志都可设为“阅后即焚”。本文将手把手带你从零部署一个真正隐私可控的 AI 助手,全程无需注册、不传数据、不依赖外部 API,5 分钟完成,10 分钟就能开始安心对话。(基于 ClawdBot 2026.1.24-3 版本实测)
1. 为什么需要“不存储消息”的AI助手?
1.1 当前AI助手的隐性风险
市面上大多数 AI 助手(包括网页版、App、甚至部分本地化工具)存在三类隐蔽但关键的数据风险:
- 消息缓存不可控:用户输入的文字、图片、语音,在传输、处理、响应过程中可能被临时写入内存、磁盘日志或调试缓存,重启后仍残留;
- 会话上下文持久化:为实现“连续对话”,系统常将历史消息自动保存至数据库或 JSON 文件,即使你没主动点击“保存”;
- 模型层无感知透传:部分本地封装工具仅代理请求到远程模型服务(如 OpenAI、Claude),用户消息实际已离开设备。
这些行为未必出于恶意,但与“隐私优先”原则相悖——你有权决定自己的数据是否留存、留存多久、以何种形式存在。
1.2 ClawdBot 的隐私设计锚点
ClawdBot 将“不存储”作为默认行为而非可选开关,其核心隐私机制体现在三个层面:
| 层级 | 默认行为 | 可配置性 | 技术说明 |
|---|---|---|---|
| 消息生命周期 | 输入即处理,响应即丢弃;不写入任何持久化存储 | 可开启 ephemeral: true 强制内存级销毁 |
所有用户消息仅驻留于 vLLM 请求队列中,响应返回后立即 GC |
| 日志记录 | 仅记录启动/错误事件,不记录任何用户输入、模型输出、对话内容 | 可关闭全部日志(logLevel: "none") |
日志路径 /app/logs/ 下无 messages.log 或 chat_history.json 类文件 |
| 模型交互 | 后端完全由本地 vLLM 提供,不调用任何外部模型 API | 不支持远程模型代理(避免意外透传) | 模型加载路径为 vllm/Qwen3-4B-Instruct-2507,运行于 http://localhost:8000/v1 |
这不是“承诺不作恶”,而是架构上无法作恶——没有存储位置,就没有泄露可能。
2. 一键部署:5分钟跑起你的私人AI助手
2.1 环境准备(极简要求)
ClawdBot 对硬件要求友好,实测可在以下环境稳定运行:
- 最低配置:4 核 CPU + 16GB 内存 + 20GB 空闲磁盘(含模型缓存)
- 推荐配置:8 核 CPU + 32GB 内存 + NVMe SSD(提升多并发响应速度)
- 操作系统:Ubuntu 22.04 / Debian 12 / macOS Monterey+(Apple Silicon 原生支持)
- 不支持:Windows(暂无 WSL 兼容优化)、树莓派(vLLM 未适配 ARM64 推理)
提示:无需 Python 环境、无需手动安装 CUDA、无需配置模型权重——所有依赖已打包进镜像。
2.2 三步启动命令(复制即用)
打开终端,依次执行以下命令(无需 root 权限):
# 1. 拉取镜像(约 1.2GB,首次需下载)
docker pull clawdbot/clawdbot:latest
# 2. 创建并启动容器(自动映射端口、挂载配置目录)
docker run -d \
--name clawdbot \
-p 7860:7860 \
-p 8000:8000 \
-v ~/.clawdbot:/app/workspace \
-v ~/.clawdbot/config:/app/config \
--restart=unless-stopped \
clawdbot/clawdbot:latest
执行完成后,ClawdBot 已在后台运行。
注意:~/.clawdbot 是你本地的配置与工作目录,所有数据仅存于此,不会上传、不会同步、不会备份。
2.3 首次访问与设备授权
ClawdBot 采用设备级鉴权机制,确保只有你授权的终端才能访问控制台:
# 查看待批准的设备请求(首次启动后自动生成)
clawdbot devices list
你会看到类似输出:
ID Status Created IP Address
abc123... pending 2026-01-24 14:22:05 192.168.1.100
执行批准命令(将 abc123... 替换为你的实际 ID):
clawdbot devices approve abc123...
完成后,打开浏览器访问:http://localhost:7860
若提示 token,运行 clawdbot dashboard 获取带 token 的链接(如 http://localhost:7860/?token=235881...)
关键确认点:页面左下角显示
Privacy Mode: ON且Storage: Local Only,即表示隐私模式已激活。
3. 隐私验证:亲眼确认“消息真的没被存”
3.1 实时检查消息存储路径
ClawdBot 的设计哲学是“所见即所得”。我们直接查看其工作目录,验证无消息残留:
# 进入配置目录
cd ~/.clawdbot
# 查看 workspace 下是否有聊天记录?
ls -la workspace/
# 输出示例:total 8
# drwxr-xr-x 2 work work 4096 Jan 24 14:25 .
# drwxr-xr-x 3 work work 4096 Jan 24 14:25 ..
# # → 空目录!无 chat_history、no messages、no logs
# 查看 config 目录下的配置文件
cat config/clawdbot.json | grep -A5 "privacy"
你会看到如下关键配置(默认启用):
"privacy": {
"ephemeral": true,
"logMessages": false,
"disableHistory": true
}
ephemeral: true = 消息仅存活于内存,响应后立即释放logMessages: false = 绝不记录用户输入与模型输出disableHistory: true = 界面不保存对话历史(刷新即清空)
3.2 抓包验证:消息不出设备
使用 tcpdump 或 Wireshark 捕获本机网络流量(过滤 port 8000 or port 7860):
- 发送一条测试消息:“今天天气怎么样?”
- 观察抓包结果:仅有
localhost → localhost的内部通信(vLLM 服务调用) - 无任何向外 DNS 查询、无 HTTPS 请求、无 IP 连接目标
- 所有流量均在
127.0.0.1内闭环完成
验证结论:ClawdBot 是真正的“离线优先”架构——模型推理、前端交互、状态管理全部发生在单设备内,物理上隔绝外部网络。
4. 模型替换与轻量优化:让Qwen3-4B真正为你所用
4.1 为什么选 Qwen3-4B-Instruct-2507?
ClawdBot 默认集成 vllm/Qwen3-4B-Instruct-2507,该模型在隐私场景下具备三大优势:
- 体积精悍:4B 参数量,显存占用仅 ~6GB(A10G),远低于 7B/13B 模型,降低本地运行门槛;
- 指令对齐强:专为对话优化,对“不存储”“不记忆”“只回答当前问题”等指令理解准确;
- 中文原生友好:无需翻译提示词,直接输入“帮我写一封辞职信”,即可生成专业、得体、符合中文职场语境的文本。
4.2 安全替换模型(不改代码、不重装)
ClawdBot 支持热更新模型配置,全程无需停机:
方法一:修改 JSON 配置(推荐)
编辑 ~/.clawdbot/config/clawdbot.json,定位 models.providers.vllm.models 数组:
{
"models": {
"providers": {
"vllm": {
"baseUrl": "http://localhost:8000/v1",
"apiKey": "sk-local",
"models": [
{
"id": "Qwen3-4B-Instruct-2507",
"name": "Qwen3-4B-Instruct-2507",
"quantization": "awq" // 启用 AWQ 量化,显存再降 30%
}
]
}
}
}
}
保存后执行重载命令:
clawdbot models reload
控制台右上角提示 Models reloaded successfully,新配置即时生效。
方法二:UI 界面操作(零命令行)
- 访问
http://localhost:7860→ 左侧菜单 Config → Models → Providers - 在
vllmProvider 下点击Edit - 将
Model ID字段改为Qwen3-4B-Instruct-2507,勾选Enable quantization (AWQ) - 点击
Save & Reload
注意:ClawdBot 不支持上传自定义模型文件。所有模型通过 Hugging Face Hub 自动拉取,路径固定为
vllm/{model_id},确保来源可信、过程可审计。
4.3 验证模型加载成功
执行命令确认模型已就绪:
clawdbot models list
输出应包含:
Model Input Ctx Local Auth Tags
vllm/Qwen3-4B-Instruct-2507 text 195k yes yes default
Local Auth: yes 表示模型完全本地加载,未连接外部服务Ctx: 195k 表示上下文长度达 195,000 tokens,足够处理长文档摘要、代码审查等任务
5. 日常使用指南:如何真正“放心对话”
5.1 界面操作:每一次对话都是干净的起点
ClawdBot Web UI 设计遵循“无痕交互”原则:
- 无历史列表:左侧无“昨日对话”“最近会话”等栏目,每次打开均为全新空白页;
- 无导出按钮:界面不提供“导出聊天记录”“保存为 Markdown”等功能,从源头杜绝误存;
- 发送即销毁:点击发送后,输入框自动清空,且浏览器本地存储(localStorage)中不保存任何消息副本。
使用建议:将 ClawdBot 作为“一次性问答工具”——问完即走,无需清理,因为本就不留痕迹。
5.2 高级隐私设置(按需开启)
如需进一步加固,可在 clawdbot.json 中添加以下配置:
"security": {
"memoryWipe": true, // 响应后强制清空内存缓冲区
"disableTelemetry": true, // 彻底禁用所有遥测(默认已关闭)
"sandboxMode": true // 启用严格沙箱,禁止模型访问文件系统
},
"privacy": {
"ephemeral": true,
"logMessages": false,
"disableHistory": true,
"autoPurgeInterval": "30s" // 每30秒自动清理内存残留(推荐值)
}
🛡 效果:即使遭遇极端内存泄漏,30 秒后所有残留数据自动归零。
5.3 与 Telegram 等渠道联动的隐私提醒
ClawdBot 支持扩展频道(如 Telegram),但请注意:
- Telegram 配置需手动填写
botToken,该 Token 仅用于接收消息,ClawdBot 不会将其上传至任何服务器; - 所有消息经 Telegram Bot API 到达本地后,立即进入
ephemeral处理流,不落盘、不缓存、不转发; - 若你在国内使用,建议搭配本地 SOCKS5 代理(如 Clash)配置
proxy字段,确保流量不出境。
重要提醒:ClawdBot 本身不提供 Telegram 服务,仅作为消息处理器。Telegram 平台侧的数据政策由其官方制定,ClawdBot 仅保证自身处理环节零存储。
6. 总结:你掌控的,才是真正的AI助手
ClawdBot 不是一个功能堆砌的“全能机器人”,而是一把精准设计的“隐私钥匙”——它用最克制的架构,兑现了最根本的承诺:你的消息,只属于你。
- 不存储:默认关闭所有消息持久化,无数据库、无日志、无缓存;
- 不外传:vLLM 完全本地运行,无远程 API 调用,无第三方模型依赖;
- 不记忆:每轮对话独立处理,上下文不跨请求保留,刷新即重置;
- 可验证:所有配置开源可见,所有路径本地可查,所有流量本地可捕。
这并非技术炫技,而是对数字时代基本权利的回归:当 AI 成为日常工具,你理应拥有对它的完全主权。
现在,你已经拥有了这样一个助手。接下来,不需要学习复杂参数,不需要研究提示工程——只需打开 http://localhost:7860,输入第一个问题,然后安心等待答案。因为你知道,那个答案,只为你生成,也只为你存在。
---
> **获取更多AI镜像**
>
> 想探索更多AI镜像和应用场景?访问 [CSDN星图镜像广场](https://ai.csdn.net/?utm_source=mirror_blog_end),提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
更多推荐

所有评论(0)