手把手教学:在星图平台快速搭建Clawdbot,让Qwen3-VL:30B成为你的飞书办公伙伴
本文介绍了如何在星图GPU平台上自动化部署“私有化本地Qwen3-VL:30B并接入飞书”镜像,快速搭建Clawdbot智能助手。通过该平台,用户可轻松私有化部署强大的多模态大模型,并将其接入飞书等办公应用,实现图片内容分析、智能对话等办公自动化场景,提升工作效率。
手把手教学:在星图平台快速搭建Clawdbot,让Qwen3-VL:30B成为你的飞书办公伙伴
项目简介:想拥有一个既能看懂图片、又能流畅对话的私人AI助手吗?本文将带你从零开始,在CSDN星图AI云平台上,用不到30分钟的时间,私有化部署目前最强的多模态大模型Qwen3-VL:30B,并通过Clawdbot将其接入飞书,打造专属的智能办公伙伴。
1. 准备工作:了解我们的技术栈
在开始之前,我们先简单了解一下要用到的几个核心组件。不用担心技术细节,我会用最直白的方式解释清楚。
1.1 为什么选择Qwen3-VL:30B?
Qwen3-VL:30B是目前开源多模态大模型中的“顶配选手”。简单来说,它有三大优势:
- 看得懂图片:不仅能识别图片中的物体,还能理解图片内容、分析图表数据、解读复杂场景
- 聊得了天:拥有300亿参数,对话能力强大,能处理复杂的办公任务
- 本地部署:完全私有化运行,你的所有数据都在自己的服务器上,安全可控
1.2 Clawdbot是什么?
你可以把Clawdbot想象成一个“智能管家”:
- 连接器:把AI模型和各种聊天工具(飞书、微信、QQ等)连接起来
- 调度中心:管理AI模型的调用,处理用户的消息请求
- 配置中心:让你通过网页界面就能轻松管理AI助手
1.3 星图AI云平台的优势
对于个人开发者和小团队来说,自己搭建服务器部署大模型门槛很高。星图平台解决了这个问题:
- 开箱即用:预装了Qwen3-VL:30B镜像,一键启动
- 算力充足:提供48GB显存的GPU,完全满足30B模型运行需求
- 成本可控:按需使用,不用自己购买昂贵的显卡
2. 第一步:在星图平台启动Qwen3-VL:30B
2.1 选择并启动镜像
登录星图AI云平台后,找到镜像市场。在搜索框中输入“Qwen3-vl:30b”,就能快速找到我们需要的镜像。

点击“部署”按钮,平台会自动推荐合适的配置。对于Qwen3-VL:30B这个级别的模型,我们需要选择48GB显存的配置,这样才能保证模型流畅运行。

重要提示:直接使用平台推荐的默认配置即可,不需要做任何修改。点击“启动”后,等待几分钟,实例就会创建完成。
2.2 测试模型是否正常运行
实例启动后,回到控制台页面。你会看到一个“Ollama控制台”的快捷入口,点击它就能进入预装好的Web交互界面。

在Web界面中,尝试问几个简单问题,比如“你好,介绍一下你自己”。如果模型能正常回复,说明部署成功了。

2.3 通过API测试连接
除了Web界面,我们还可以通过代码来测试模型。星图平台为每个实例提供了公网访问地址,我们可以用Python代码来验证API是否正常。
from openai import OpenAI
# 注意:这里的base_url需要替换成你自己的实例地址
# 格式通常是:https://你的实例ID-端口号.web.gpu.csdn.net/v1
client = OpenAI(
base_url="https://gpu-pod697b0f1855ba5839425df6ea-11434.web.gpu.csdn.net/v1",
api_key="ollama" # Ollama的默认API密钥
)
try:
response = client.chat.completions.create(
model="qwen3-vl:30b",
messages=[{"role": "user", "content": "你好,请用一句话介绍你自己"}]
)
print("模型回复:", response.choices[0].message.content)
print("✅ API连接测试成功!")
except Exception as e:
print(f"❌ 连接失败,错误信息:{e}")
运行这段代码,如果看到模型回复,说明一切正常。现在我们的AI大脑已经准备就绪,接下来要给它安装一个“嘴巴和耳朵”。
3. 第二步:安装和配置Clawdbot
3.1 安装Clawdbot
Clawdbot是基于Node.js开发的,幸运的是星图平台已经预装了Node.js环境。我们只需要一条命令就能完成安装:
npm i -g clawdbot
安装过程大概需要1-2分钟,你会看到类似下面的输出:

看到“added XX packages”的提示,就说明安装成功了。
3.2 初始化配置
安装完成后,我们需要进行初始配置。输入以下命令启动配置向导:
clawdbot onboard
这个向导会引导你完成基础设置。对于大多数选项,我们可以先选择默认值或者跳过,后续在Web界面中再详细配置。
配置过程中,你会看到几个关键步骤:
- 选择运行模式:选择“local”(本地模式)
- 设置工作目录:使用默认的
/root/clawd即可 - 配置网关端口:默认是18789,我们保持默认
- 认证方式:选择“token”方式,并设置一个简单的token,比如“csdn”
完成配置后,Clawdbot会生成配置文件,位置在~/.clawdbot/clawdbot.json。
3.3 启动网关并访问控制面板
现在启动Clawdbot的网关服务:
clawdbot gateway
启动成功后,你会看到服务正在监听18789端口。接下来我们需要访问控制面板。
访问地址的构造方法:
- 你的实例原始地址可能是:
https://gpu-podXXXX-8888.web.gpu.csdn.net/ - 把端口号8888换成18789:
https://gpu-podXXXX-18789.web.gpu.csdn.net/
在浏览器中打开这个地址,如果一切正常,你应该能看到Clawdbot的登录界面。

4. 第三步:解决网络访问问题
4.1 为什么页面是空白的?
很多同学在这一步会遇到问题:打开控制面板地址,页面是空白的。这是因为Clawdbot默认只监听本地地址(127.0.0.1),外部网络无法访问。
查看当前监听状态:
netstat -tlnp | grep 18789
如果显示127.0.0.1:18789,说明只监听本地。我们需要修改配置,让它监听所有网络接口。
4.2 修改配置文件
打开Clawdbot的配置文件:
vim ~/.clawdbot/clawdbot.json
找到gateway部分,修改以下三个关键配置:
"gateway": {
"mode": "local",
"bind": "lan", // 把"loopback"改为"lan"
"port": 18789,
"auth": {
"mode": "token",
"token": "csdn" // 设置你的访问token
},
"trustedProxies": ["0.0.0.0/0"], // 添加这一行,信任所有代理
"controlUi": {
"enabled": true,
"allowInsecureAuth": true
}
}
修改说明:
bind: "lan":让服务监听所有网络接口,不只是本地trustedProxies: ["0.0.0.0/0"]:信任所有代理转发,避免网络问题token: "csdn":设置一个简单的访问密码
保存修改后,重启Clawdbot网关:
# 先按Ctrl+C停止当前服务
# 然后重新启动
clawdbot gateway
再次检查监听状态:
netstat -tlnp | grep 18789
现在应该显示0.0.0.0:18789,说明已经可以外部访问了。
4.3 登录控制面板
刷新浏览器页面,这次应该能看到登录界面了。输入刚才设置的token“csdn”,就能进入控制面板。

登录成功后,你会看到Clawdbot的管理界面。到这里,我们的“智能管家”已经安装配置完成。
5. 第四步:连接AI大脑和智能管家
5.1 配置模型连接
现在我们要告诉Clawdbot:“请使用我们刚才部署的Qwen3-VL:30B模型”。
再次编辑配置文件:
vim ~/.clawdbot/clawdbot.json
在配置文件中添加模型提供商配置。找到models.providers部分,添加以下内容:
"models": {
"providers": {
"my-ollama": {
"baseUrl": "http://127.0.0.1:11434/v1",
"apiKey": "ollama",
"api": "openai-completions",
"models": [
{
"id": "qwen3-vl:30b",
"name": "Local Qwen3 30B",
"contextWindow": 32000
}
]
}
}
}
然后找到agents.defaults部分,设置默认模型:
"agents": {
"defaults": {
"model": {
"primary": "my-ollama/qwen3-vl:30b"
}
}
}
5.2 完整的配置文件参考
如果你不确定怎么修改,可以直接使用下面的完整配置。先备份原来的配置文件,然后用这个覆盖:
{
"meta": {
"lastTouchedVersion": "2026.1.24-3",
"lastTouchedAt": "2026-01-29T09:43:42.012Z"
},
"wizard": {
"lastRunAt": "2026-01-29T09:43:41.997Z",
"lastRunVersion": "2026.1.24-3",
"lastRunCommand": "onboard",
"lastRunMode": "local"
},
"auth": {
"profiles": {
"qwen-portal:default": {
"provider": "qwen-portal",
"mode": "oauth"
}
}
},
"models": {
"providers": {
"my-ollama": {
"baseUrl": "http://127.0.0.1:11434/v1",
"apiKey": "ollama",
"api": "openai-completions",
"models": [
{
"id": "qwen3-vl:30b",
"name": "Local Qwen3 32B",
"reasoning": false,
"input": ["text"],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 32000,
"maxTokens": 4096
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "my-ollama/qwen3-vl:30b"
},
"models": {
"my-ollama/qwen3-vl:30b": {
"alias": "qwen"
}
},
"workspace": "/root/clawd",
"compaction": {
"mode": "safeguard"
},
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
},
"messages": {
"ackReactionScope": "group-mentions"
},
"commands": {
"native": "auto",
"nativeSkills": "auto"
},
"gateway": {
"port": 18789,
"mode": "local",
"bind": "lan",
"controlUi": {
"enabled": true,
"allowInsecureAuth": true
},
"auth": {
"mode": "token",
"token": "csdn"
},
"trustedProxies": ["0.0.0.0/0"],
"tailscale": {
"mode": "off",
"resetOnExit": false
}
},
"skills": {
"install": {
"nodeManager": "npm"
}
},
"plugins": {
"entries": {
"qwen-portal-auth": {
"enabled": true
}
}
},
"hooks": {
"internal": {
"enabled": true,
"entries": {
"session-memory": {
"enabled": true
}
}
}
}
}
5.3 测试连接是否成功
保存配置文件后,重启Clawdbot服务。然后打开一个新的终端窗口,监控GPU使用情况:
watch nvidia-smi
这个命令会实时显示GPU的状态。现在回到Clawdbot的控制面板,在Chat页面发送一条消息:

如果一切正常,你会看到:
- Clawdbot返回了AI的回复
- 在
nvidia-smi监控窗口中,GPU显存使用率明显上升 - 模型开始“思考”并生成回复

恭喜! 到这里,你已经成功搭建了一个私有化的AI助手。它运行在你自己的服务器上,通过Clawdbot提供Web聊天界面。
6. 常见问题与解决方案
在部署过程中,你可能会遇到一些问题。这里我总结了一些常见问题和解决方法:
6.1 控制面板无法访问
问题:修改配置后,还是无法访问控制面板。
解决步骤:
- 检查Clawdbot是否正在运行:
ps aux | grep clawdbot - 检查端口监听状态:
netstat -tlnp | grep 18789 - 确认配置文件中
bind设置为"lan" - 确认
trustedProxies包含"0.0.0.0/0"
6.2 模型无法响应
问题:Clawdbot能收到消息,但AI不回复。
排查方法:
- 检查Ollama服务是否运行:
curl http://127.0.0.1:11434/api/tags - 检查Clawdbot日志:在运行
clawdbot gateway的终端查看错误信息 - 确认模型配置中的
baseUrl正确:应该是http://127.0.0.1:11434/v1
6.3 GPU显存不足
问题:模型响应很慢,或者直接报错。
可能原因:
- Qwen3-VL:30B需要大约30GB显存来运行
- 如果显存不足,可以尝试量化版本,但效果会有所下降
解决方案: 在星图平台选择更高配置的实例,确保有足够的显存。
6.4 配置文件修改错误
问题:修改配置文件后服务无法启动。
快速恢复:
# 备份错误配置
cp ~/.clawdbot/clawdbot.json ~/.clawdbot/clawdbot.json.bak
# 恢复默认配置
clawdbot onboard --reset
然后重新按照教程配置即可。
7. 总结与下一步
通过本教程,我们完成了三个重要步骤:
7.1 我们已经完成的工作
- 部署了强大的AI大脑:在星图平台一键部署了Qwen3-VL:30B多模态大模型
- 搭建了智能管家:安装配置了Clawdbot作为AI助手的管理平台
- 实现了本地对话:通过Web界面与私有化AI进行对话
现在你拥有的是一个完全私有化的AI助手,所有对话数据都在你自己的服务器上,安全可控。
7.2 实际应用场景
这个私有化AI助手可以用于:
- 个人学习助手:解答技术问题、帮助理解复杂概念
- 办公效率工具:帮助撰写邮件、整理会议纪要、分析数据
- 创意工作伙伴:协助写作、头脑风暴、内容创作
- 多模态应用:分析图片内容、解读图表数据
7.3 下一步可以做什么?
如果你想让这个AI助手更加实用,可以考虑:
- 接入更多平台:除了Web界面,还可以接入飞书、微信等常用工具
- 定制专属功能:根据你的需求,训练特定的技能
- 优化响应速度:调整参数配置,提升对话体验
- 扩展多模型支持:除了Qwen3-VL,还可以接入其他AI模型
最重要的提醒:记得定期保存你的工作。星图平台的实例在停止后数据可能会丢失,重要的配置和代码要及时备份。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
更多推荐


所有评论(0)