OpenClaw本地部署实操:nanobot + Docker Compose 实现服务持久化运行
本文介绍了如何在星图GPU平台上自动化部署🐈 nanobot:超轻量级OpenClaw镜像,实现个人AI助手的快速搭建。该镜像仅需4000行代码即可提供核心代理功能,支持通过Docker Compose一键部署,并内置Qwen3-4B-Instruct-2507模型,适用于QQ机器人接入等轻量级AI应用场景。
OpenClaw本地部署实操:nanobot + Docker Compose 实现服务持久化运行
1. nanobot简介
nanobot是一款受OpenClaw启发的超轻量级个人人工智能助手,仅需约4000行代码即可提供核心代理功能。相比Clawdbot的430k多行代码,体积缩小了99%。当前版本实时代码行数为3510行(可通过运行bash core_agent_lines.sh进行验证)。
这个轻量级解决方案内置了vllm部署的Qwen3-4B-Instruct-2507模型,并使用chainlit作为推理交互界面。特别值得一提的是,它支持通过简单配置接入QQ聊天机器人,为个人开发者和小型团队提供了便捷的AI助手部署方案。
2. 环境准备与部署
2.1 系统要求
- 操作系统:Linux (推荐Ubuntu 20.04/22.04)
- Docker版本:20.10.0或更高
- Docker Compose版本:1.29.0或更高
- GPU:NVIDIA显卡(推荐显存≥16GB)
- CUDA版本:11.8或更高
2.2 快速部署步骤
- 首先克隆项目仓库:
git clone https://github.com/sonhhxg/nanobot.git
cd nanobot
- 使用Docker Compose启动服务:
docker-compose up -d
- 查看服务日志确认部署状态:
docker-compose logs -f
部署成功后,可以通过检查日志文件确认模型服务是否正常运行:
cat /root/workspace/llm.log
3. 基础功能使用
3.1 通过chainlit与nanobot交互
启动chainlit界面:
chainlit run app.py
访问本地地址(默认http://localhost:8000)即可开始与nanobot对话。界面简洁直观,支持自然语言提问和指令执行。
3.2 常见操作示例
查看系统信息:
使用nvidia-smi看一下显卡配置
执行结果将显示当前GPU使用情况,包括显存占用、GPU温度等信息。
4. 进阶功能:接入QQ机器人
4.1 准备工作
- 访问QQ开放平台(https://q.qq.com/#/apps)注册开发者账号
- 创建机器人应用,获取AppID和AppSecret
4.2 配置nanobot
修改配置文件:
vim /root/.nanobot/config.json
添加QQ机器人配置:
{
"channels": {
"qq": {
"enabled": true,
"appId": "YOUR_APP_ID",
"secret": "YOUR_APP_SECRET",
"allowFrom": []
}
}
}
4.3 启动网关服务
nanobot gateway
服务启动成功后,即可通过QQ与机器人进行对话交互。
5. 服务持久化与维护
5.1 使用Docker Compose管理服务
启动服务:
docker-compose up -d
停止服务:
docker-compose down
查看服务状态:
docker-compose ps
5.2 日志管理
查看实时日志:
docker-compose logs -f
日志文件默认存储在/root/workspace/llm.log,可通过配置修改存储路径。
6. 总结
通过本文介绍的方法,我们成功实现了nanobot的本地部署和持久化运行。这个轻量级解决方案具有以下优势:
- 部署简单:使用Docker Compose一键部署,无需复杂环境配置
- 资源占用低:相比同类解决方案,代码体积缩小99%
- 功能丰富:支持命令行交互和QQ机器人接入
- 易于扩展:模块化设计方便功能扩展
对于开发者而言,nanobot提供了一个理想的AI助手开发框架,可以基于此快速构建个性化智能应用。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
更多推荐

所有评论(0)