OpenClaw本地部署实操:nanobot + Docker Compose 实现服务持久化运行

1. nanobot简介

nanobot是一款受OpenClaw启发的超轻量级个人人工智能助手,仅需约4000行代码即可提供核心代理功能。相比Clawdbot的430k多行代码,体积缩小了99%。当前版本实时代码行数为3510行(可通过运行bash core_agent_lines.sh进行验证)。

这个轻量级解决方案内置了vllm部署的Qwen3-4B-Instruct-2507模型,并使用chainlit作为推理交互界面。特别值得一提的是,它支持通过简单配置接入QQ聊天机器人,为个人开发者和小型团队提供了便捷的AI助手部署方案。

2. 环境准备与部署

2.1 系统要求

  • 操作系统:Linux (推荐Ubuntu 20.04/22.04)
  • Docker版本:20.10.0或更高
  • Docker Compose版本:1.29.0或更高
  • GPU:NVIDIA显卡(推荐显存≥16GB)
  • CUDA版本:11.8或更高

2.2 快速部署步骤

  1. 首先克隆项目仓库:
git clone https://github.com/sonhhxg/nanobot.git
cd nanobot
  1. 使用Docker Compose启动服务:
docker-compose up -d
  1. 查看服务日志确认部署状态:
docker-compose logs -f

部署成功后,可以通过检查日志文件确认模型服务是否正常运行:

cat /root/workspace/llm.log

3. 基础功能使用

3.1 通过chainlit与nanobot交互

启动chainlit界面:

chainlit run app.py

访问本地地址(默认http://localhost:8000)即可开始与nanobot对话。界面简洁直观,支持自然语言提问和指令执行。

3.2 常见操作示例

查看系统信息:

使用nvidia-smi看一下显卡配置

执行结果将显示当前GPU使用情况,包括显存占用、GPU温度等信息。

4. 进阶功能:接入QQ机器人

4.1 准备工作

  1. 访问QQ开放平台(https://q.qq.com/#/apps)注册开发者账号
  2. 创建机器人应用,获取AppID和AppSecret

4.2 配置nanobot

修改配置文件:

vim /root/.nanobot/config.json

添加QQ机器人配置:

{
  "channels": {
    "qq": {
      "enabled": true,
      "appId": "YOUR_APP_ID",
      "secret": "YOUR_APP_SECRET",
      "allowFrom": []
    }
  }
}

4.3 启动网关服务

nanobot gateway

服务启动成功后,即可通过QQ与机器人进行对话交互。

5. 服务持久化与维护

5.1 使用Docker Compose管理服务

启动服务:

docker-compose up -d

停止服务:

docker-compose down

查看服务状态:

docker-compose ps

5.2 日志管理

查看实时日志:

docker-compose logs -f

日志文件默认存储在/root/workspace/llm.log,可通过配置修改存储路径。

6. 总结

通过本文介绍的方法,我们成功实现了nanobot的本地部署和持久化运行。这个轻量级解决方案具有以下优势:

  1. 部署简单:使用Docker Compose一键部署,无需复杂环境配置
  2. 资源占用低:相比同类解决方案,代码体积缩小99%
  3. 功能丰富:支持命令行交互和QQ机器人接入
  4. 易于扩展:模块化设计方便功能扩展

对于开发者而言,nanobot提供了一个理想的AI助手开发框架,可以基于此快速构建个性化智能应用。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐