Qwen3-VL:30B部署教程:星图平台SSH连接→Clawdbot.json手动修改→服务重启
本文介绍了如何在星图GPU平台上自动化部署Qwen3-VL:30B镜像,快速搭建具备多模态能力的Clawdbot智能助手。通过该平台,用户可轻松实现私有化本地部署,并应用于图文对话、智能问答等场景,显著提升AI助手开发效率。
Qwen3-VL:30B部署教程:星图平台SSH连接→Clawdbot.json手动修改→服务重启
1. 教程概述与目标
本教程将手把手教你如何在CSDN星图AI云平台上,从零开始部署强大的多模态大模型Qwen3-VL:30B,并通过Clawdbot搭建一个既能"看图"又能"聊天"的智能助手。
学习完成后,你将掌握:
- 在星图平台快速部署Qwen3-VL:30B镜像
- 通过SSH连接云服务器并进行配置修改
- 安装和配置Clawdbot聊天机器人框架
- 手动修改配置文件实现模型集成
- 服务重启和最终测试验证
前置要求:
- 基本的命令行操作经验
- CSDN星图平台账号
- 无需深厚的AI背景,跟着步骤做就行
实验说明:本文所有的部署及测试环境均由 CSDN星图AI 云平台提供。我们使用官方预装的Qwen3-VL-30B镜像作为基础环境。
2. 环境准备与镜像部署
2.1 选择合适的基础镜像
首先登录CSDN星图AI平台,在镜像市场中找到Qwen3-VL:30B镜像。这个镜像是目前最强的多模态模型之一,支持图文对话和复杂推理。

操作提示:
- 如果镜像列表较长,可以直接在搜索框输入
Qwen3-vl:30b快速定位 - 确认镜像版本为30B参数版本,这是效果最好的版本
2.2 配置硬件资源
Qwen3-VL:30B作为大参数模型,需要足够的计算资源。星图平台会自动推荐合适的配置:
| 资源类型 | 推荐配置 | 说明 |
|---|---|---|
| GPU显存 | 48GB | 最低要求,确保模型正常运行 |
| CPU核心 | 20核心 | 提供充足的计算能力 |
| 内存 | 240GB | 支持大规模数据处理 |
| 系统盘 | 50GB | 基础系统空间 |
| 数据盘 | 40GB | 模型文件和数据处理空间 |

按照默认推荐配置启动实例即可,平台会自动优化资源分配。
2.3 初始连接测试
实例启动后,我们先进行基础连通性测试。在控制台点击"Ollama控制台"快捷方式,进入预装好的Web交互界面。

进行简单的对话测试,确保模型基本功能正常:

3. SSH连接与Clawdbot安装
3.1 获取SSH连接信息
在星图平台控制台,找到你的实例SSH连接信息。通常包括:
- 服务器公网IP地址
- SSH端口号
- 登录用户名(通常是root)
- 密码或密钥认证方式
3.2 连接云服务器
使用你熟悉的SSH工具连接服务器。以命令行为例:
ssh root@你的服务器IP -p 端口号
输入密码后,你就成功进入了云服务器环境。
3.3 安装Clawdbot框架
星图环境已经预装了Node.js和必要的依赖,我们可以直接通过npm安装Clawdbot:
npm i -g clawdbot

安装完成后,验证安装是否成功:
clawdbot --version
应该能看到版本号信息,表示安装成功。
3.4 初始化配置
运行初始化向导,完成基础配置:
clawdbot onboard

在初始化过程中,对于高级配置选项,建议先选择跳过,我们后续通过配置文件手动修改。
4. 配置文件手动修改
4.1 定位配置文件
Clawdbot的配置文件位于用户目录下的隐藏文件夹中:
vim ~/.clawdbot/clawdbot.json
这个文件包含了所有的配置信息,我们需要手动修改几个关键部分。
4.2 解决网络访问问题
默认配置只监听本地回环地址,需要修改为全网监听:
修改前:
"gateway": {
"bind": "loopback",
"port": 18789
}
修改后:
"gateway": {
"bind": "lan",
"port": 18789,
"auth": {
"mode": "token",
"token": "csdn"
},
"trustedProxies": ["0.0.0.0/0"]
}

4.3 配置模型集成
这是最关键的一步,将Clawdbot连接到我们部署的Qwen3-VL:30B模型。
在配置文件的models.providers部分添加新的模型供应源:
"models": {
"providers": {
"my-ollama": {
"baseUrl": "http://127.0.0.1:11434/v1",
"apiKey": "ollama",
"api": "openai-completions",
"models": [
{
"id": "qwen3-vl:30b",
"name": "Local Qwen3 30B",
"contextWindow": 32000
}
]
}
}
}
然后在agents.defaults中设置默认模型:
"agents": {
"defaults": {
"model": {
"primary": "my-ollama/qwen3-vl:30b"
}
}
}
4.4 完整配置文件参考
如果你遇到配置问题,可以参考这个完整的配置模板:
{
"meta": {
"lastTouchedVersion": "2026.1.24-3"
},
"models": {
"providers": {
"my-ollama": {
"baseUrl": "http://127.0.0.1:11434/v1",
"apiKey": "ollama",
"api": "openai-completions",
"models": [
{
"id": "qwen3-vl:30b",
"name": "Local Qwen3 30B",
"contextWindow": 32000
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "my-ollama/qwen3-vl:30b"
}
}
},
"gateway": {
"port": 18789,
"mode": "local",
"bind": "lan",
"auth": {
"mode": "token",
"token": "csdn"
},
"trustedProxies": ["0.0.0.0/0"]
}
}
5. 服务重启与最终测试
5.1 重启Clawdbot服务
修改配置后,需要重启服务使更改生效。首先停止当前服务(如果正在运行):
# 查找正在运行的Clawdbot进程
ps aux | grep clawdbot
# 停止进程
kill [进程ID]
然后重新启动服务:
clawdbot gateway
5.2 监控GPU状态
打开新的终端窗口,监控GPU使用情况,确认模型正常加载:
watch nvidia-smi
你应该能看到GPU显存占用显著增加,这表明Qwen3-VL:30B模型已经成功加载。

5.3 最终功能测试
通过Web界面访问Clawdbot控制台(端口18789),进行最终测试:
- 文本对话测试:发送文字消息,检查回复是否正常
- 图片识别测试:上传图片并提问,测试多模态能力
- 连续对话测试:进行多轮对话,测试上下文理解

如果所有测试都通过,恭喜你!Qwen3-VL:30B已经成功部署并集成到Clawdbot中。
6. 总结与下一步
通过本教程,你已经完成了:
- ✅ 星图平台Qwen3-VL:30B镜像的部署
- ✅ SSH连接云服务器和基础环境配置
- ✅ Clawdbot框架的安装和初始化
- ✅ 配置文件的手动修改和模型集成
- ✅ 服务重启和最终功能测试
常见问题解决:
- Web页面空白:检查
bind配置是否为lan而不是loopback - 连接超时:确认防火墙设置和端口开放状态
- 模型不响应:检查Ollama服务是否正常运行
systemctl status ollama
下一步学习建议:
在后续教程中,我们将深入讲解:
- 如何将搭建好的智能助手接入飞书平台
- 实现群聊互动和团队协作功能
- 环境持久化打包和镜像发布
- 性能优化和监控配置
现在你已经拥有了一个强大的多模态AI助手,可以开始探索各种应用场景了!
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
更多推荐



所有评论(0)