OpenClaw官方下载后第一步:nanobot镜像pull→run→cat llm.log→提问全流程图解

1. nanobot简介

nanobot是一款受OpenClaw启发的超轻量级个人人工智能助手,仅需约4000行代码即可提供核心代理功能,比同类产品的430k多行代码精简99%。这个轻量级设计让它在资源消耗和响应速度上都有显著优势。

内置了基于vllm部署的Qwen3-4B-Instruct-2507模型,并使用chainlit作为推理交互界面。你可以把它想象成一个装在口袋里的AI助手,虽然体积小但功能强大,而且还能根据需要扩展功能,比如接入QQ聊天机器人。

2. 快速部署与验证

2.1 镜像pull与运行

首先,你需要获取nanobot的镜像并运行它。这个过程非常简单,就像下载一个APP然后点击运行一样:

docker pull nanobot-image:latest
docker run -it --gpus all -p 7860:7860 nanobot-image

这个命令会下载最新版的nanobot镜像,并在GPU环境下运行它,同时将容器的7860端口映射到主机的7860端口。

2.2 验证服务状态

部署完成后,我们需要确认模型服务是否正常运行。这就像检查汽车的仪表盘,看看所有系统是否工作正常:

cat /root/workspace/llm.log

如果看到类似下面的输出,说明服务已经成功启动:

[INFO] Model loaded successfully
[INFO] vLLM engine initialized
[INFO] API server started on port 8000

3. 使用chainlit与nanobot交互

3.1 启动chainlit界面

chainlit是nanobot的交互界面,就像是你和AI之间的对话窗口。启动它只需要一个简单的命令:

chainlit run app.py

启动后,在浏览器中访问http://localhost:7860就能看到交互界面了。

3.2 进行提问测试

现在你可以像和朋友聊天一样向nanobot提问了。比如,想了解当前系统的显卡配置,可以输入:

使用nvidia-smi看一下显卡配置

nanobot会理解你的请求,并返回类似下面的信息:

GPU 0: NVIDIA GeForce RTX 3090
Memory Usage: 12000/24564 MB
Compute Utilization: 15%

4. 扩展功能:接入QQ机器人

4.1 准备工作

如果你想给QQ好友也分享这个智能助手,可以按照以下步骤配置:

  1. 访问QQ开放平台(https://q.qq.com/#/apps)注册开发者账号
  2. 创建一个新的机器人应用
  3. 获取AppID和AppSecret

4.2 配置nanobot

有了QQ机器人的凭证后,需要修改nanobot的配置文件:

vim /root/.nanobot/config.json

找到并修改以下部分:

{
  "channels": {
    "qq": {
      "enabled": true,
      "appId": "你的AppID",
      "secret": "你的AppSecret",
      "allowFrom": []
    }
  }
}

4.3 启动网关服务

配置完成后,启动网关服务让QQ机器人上线:

nanobot gateway

看到"Gateway service started successfully"的提示,说明服务已经正常运行。

4.4 测试QQ机器人

现在,你可以在QQ上向这个机器人提问了。它会像在chainlit界面中一样智能地回答你的问题。

5. 常见问题与支持

如果在使用过程中遇到任何问题,可以参考以下资源:

  • 官方文档:https://sonhhxg0529.blog.csdn.net/
  • GitHub仓库:https://github.com/openclaw/nanobot

这个项目是完全开源的,保留了所有版权信息。我们欢迎任何改进建议和问题反馈。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐