Qwen3-VL:30B部署教程:星图平台GPU资源分配+Clawdbot服务端口映射详解
本文介绍了如何在星图GPU平台上自动化部署“星图平台快速搭建 Clawdbot:私有化本地 Qwen3-VL:30B 并接入飞书(上篇)”镜像,实现多模态AI助手的快速搭建。该镜像支持图文理解与智能对话,可应用于企业办公自动化、智能客服等场景,提升工作效率与交互体验。
Qwen3-VL:30B部署教程:星图平台GPU资源分配+Clawdbot服务端口映射详解
1. 环境准备与快速部署
想要搭建一个既能看懂图片又能智能聊天的AI助手吗?今天我来手把手教你在星图平台上快速部署Qwen3-VL:30B多模态大模型,并通过Clawdbot搭建飞书智能办公助手。整个过程就像搭积木一样简单,不需要任何深度学习基础,跟着步骤来就能搞定。
1.1 硬件环境选择
在开始之前,我们先看看需要什么样的硬件环境。Qwen3-VL:30B是个大家伙,需要足够的计算资源才能流畅运行:
| 资源类型 | 推荐配置 | 最低要求 |
|---|---|---|
| GPU显存 | 48GB | 32GB |
| CPU核心 | 20核心 | 12核心 |
| 内存 | 240GB | 128GB |
| 系统盘 | 50GB | 30GB |
| 数据盘 | 40GB | 20GB |
星图平台已经为我们准备好了合适的硬件环境,直接使用默认推荐配置就能满足要求。
1.2 镜像选择与部署
首先登录星图AI云平台,在镜像市场搜索"Qwen3-vl:30b"。你会看到官方预装好的镜像,点击选择即可。

如果镜像列表太长,直接在搜索框输入"Qwen3-vl:30b"就能快速找到目标。选择镜像后,平台会自动推荐合适的硬件配置,直接点击启动就行。

2. 服务测试与验证
部署完成后,我们需要测试一下服务是否正常启动。这个过程很重要,能确保后续步骤顺利进行。
2.1 Web界面测试
实例启动后,在控制台找到"Ollama控制台"快捷方式,点击进入Web交互界面。这里可以直接和模型对话,测试基本功能是否正常。
尝试输入一些简单问题,比如"你好,介绍一下你自己",如果能看到流畅的回答,说明模型部署成功了。

2.2 API接口测试
除了Web界面,我们还需要测试API接口是否正常工作。星图平台为每个实例提供了公网访问地址,我们可以用Python代码进行测试。
from openai import OpenAI
# 替换成你的实际服务器地址
client = OpenAI(
base_url="https://你的服务器地址.web.gpu.csdn.net/v1",
api_key="ollama"
)
try:
response = client.chat.completions.create(
model="qwen3-vl:30b",
messages=[{"role": "user", "content": "你好,请做个自我介绍"}]
)
print("API测试成功!")
print(response.choices[0].message.content)
except Exception as e:
print(f"连接失败,请检查服务状态: {e}")
运行这段代码,如果能看到模型的自我介绍,说明API接口工作正常。
3. Clawdbot安装与配置
接下来我们要安装和配置Clawdbot,这是连接模型和飞书的关键桥梁。
3.1 安装Clawdbot
星图环境已经预装了Node.js,我们直接用npm命令安装Clawdbot:
npm i -g clawdbot
安装过程很快,通常几分钟就能完成。安装完成后,可以用以下命令验证是否安装成功:
clawdbot --version

3.2 初始配置
运行初始化向导,完成基本配置:
clawdbot onboard
这个向导会引导你完成一些基本设置,对于不熟悉的选项,可以先选择跳过,后续在Web界面中再详细配置。

4. 网络与安全配置
这是最关键的一步,需要正确配置网络设置才能让服务正常访问。
4.1 解决访问问题
默认情况下,Clawdbot只监听本地回环地址(127.0.0.1),这意味着外部无法访问。我们需要修改配置文件:
vim ~/.clawdbot/clawdbot.json
找到gateway配置部分,进行以下修改:
"gateway": {
"mode": "local",
"bind": "lan", // 改为lan允许全网访问
"port": 18789,
"auth": {
"mode": "token",
"token": "你的安全令牌" // 设置访问令牌
},
"trustedProxies": ["0.0.0.0/0"], // 信任所有代理
"controlUi": {
"enabled": true,
"allowInsecureAuth": true
}
}
4.2 服务重启与验证
修改配置后,需要重启服务:
clawdbot gateway restart
然后访问控制面板(将原来的8888端口改为18789端口):
https://你的服务器地址-18789.web.gpu.csdn.net/
如果页面正常显示并要求输入令牌,说明配置成功。

5. 模型集成与测试
现在我们要把Clawdbot和Qwen3-VL:30B模型连接起来。
5.1 配置模型连接
编辑配置文件,添加模型供应源:
"models": {
"providers": {
"my-ollama": {
"baseUrl": "http://127.0.0.1:11434/v1",
"apiKey": "ollama",
"api": "openai-completions",
"models": [
{
"id": "qwen3-vl:30b",
"name": "Local Qwen3 30B",
"contextWindow": 32000
}
]
}
}
}
5.2 设置默认模型
在agents配置中指定使用我们部署的模型:
"agents": {
"defaults": {
"model": {
"primary": "my-ollama/qwen3-vl:30b"
}
}
}
5.3 最终测试
完成配置后,进行最终测试:
- 重启Clawdbot服务
- 打开一个新的终端窗口,运行GPU监控命令:
watch nvidia-smi - 在Clawdbot的Chat页面发送测试消息
- 观察GPU显存使用情况,确认模型正在工作

如果看到显存使用量增加,并且能收到模型的回复,说明整个系统已经成功集成!
6. 总结与下一步
至此,我们已经成功在星图平台上完成了Qwen3-VL:30B的私有化部署,并通过Clawdbot搭建了管理网关。现在你拥有了一个强大的多模态AI助手,能够理解图片内容并进行智能对话。
当前已完成的步骤:
- ✅ 星图平台环境准备与资源配置
- ✅ Qwen3-VL:30B模型部署与测试
- ✅ Clawdbot安装与基础配置
- ✅ 网络端口映射与安全设置
- ✅ 模型与网关的集成对接
下篇教程将涵盖:
- 飞书平台接入与配置
- 群聊机器人的设置与管理
- 环境持久化与镜像打包
- 性能优化与监控建议
现在你可以先熟悉当前部署的环境,尝试与模型进行一些简单的图文交互测试。如果有任何问题,欢迎在评论区留言讨论!
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
更多推荐



所有评论(0)