手把手教学:在星图平台快速搭建Clawdbot,让Qwen3-VL:30B成为你的飞书办公伙伴

项目简介:想拥有一个既能看懂图片、又能流畅对话的私人AI助手吗?本文将带你从零开始,在CSDN星图AI云平台上,用不到30分钟的时间,私有化部署目前最强的多模态大模型Qwen3-VL:30B,并通过Clawdbot将其接入飞书,打造专属的智能办公伙伴。

1. 准备工作:了解我们的技术栈

在开始之前,我们先简单了解一下要用到的几个核心组件。不用担心技术细节,我会用最直白的方式解释清楚。

1.1 为什么选择Qwen3-VL:30B?

Qwen3-VL:30B是目前开源多模态大模型中的“顶配选手”。简单来说,它有三大优势:

  • 看得懂图片:不仅能识别图片中的物体,还能理解图片内容、分析图表数据、解读复杂场景
  • 聊得了天:拥有300亿参数,对话能力强大,能处理复杂的办公任务
  • 本地部署:完全私有化运行,你的所有数据都在自己的服务器上,安全可控

1.2 Clawdbot是什么?

你可以把Clawdbot想象成一个“智能管家”:

  • 连接器:把AI模型和各种聊天工具(飞书、微信、QQ等)连接起来
  • 调度中心:管理AI模型的调用,处理用户的消息请求
  • 配置中心:让你通过网页界面就能轻松管理AI助手

1.3 星图AI云平台的优势

对于个人开发者和小团队来说,自己搭建服务器部署大模型门槛很高。星图平台解决了这个问题:

  • 开箱即用:预装了Qwen3-VL:30B镜像,一键启动
  • 算力充足:提供48GB显存的GPU,完全满足30B模型运行需求
  • 成本可控:按需使用,不用自己购买昂贵的显卡

2. 第一步:在星图平台启动Qwen3-VL:30B

2.1 选择并启动镜像

登录星图AI云平台后,找到镜像市场。在搜索框中输入“Qwen3-vl:30b”,就能快速找到我们需要的镜像。

镜像搜索界面

点击“部署”按钮,平台会自动推荐合适的配置。对于Qwen3-VL:30B这个级别的模型,我们需要选择48GB显存的配置,这样才能保证模型流畅运行。

配置选择界面

重要提示:直接使用平台推荐的默认配置即可,不需要做任何修改。点击“启动”后,等待几分钟,实例就会创建完成。

2.2 测试模型是否正常运行

实例启动后,回到控制台页面。你会看到一个“Ollama控制台”的快捷入口,点击它就能进入预装好的Web交互界面。

Ollama控制台入口

在Web界面中,尝试问几个简单问题,比如“你好,介绍一下你自己”。如果模型能正常回复,说明部署成功了。

模型测试对话

2.3 通过API测试连接

除了Web界面,我们还可以通过代码来测试模型。星图平台为每个实例提供了公网访问地址,我们可以用Python代码来验证API是否正常。

from openai import OpenAI

# 注意:这里的base_url需要替换成你自己的实例地址
# 格式通常是:https://你的实例ID-端口号.web.gpu.csdn.net/v1
client = OpenAI(
    base_url="https://gpu-pod697b0f1855ba5839425df6ea-11434.web.gpu.csdn.net/v1",
    api_key="ollama"  # Ollama的默认API密钥
)

try:
    response = client.chat.completions.create(
        model="qwen3-vl:30b",
        messages=[{"role": "user", "content": "你好,请用一句话介绍你自己"}]
    )
    print("模型回复:", response.choices[0].message.content)
    print("✅ API连接测试成功!")
except Exception as e:
    print(f"❌ 连接失败,错误信息:{e}")

运行这段代码,如果看到模型回复,说明一切正常。现在我们的AI大脑已经准备就绪,接下来要给它安装一个“嘴巴和耳朵”。

3. 第二步:安装和配置Clawdbot

3.1 安装Clawdbot

Clawdbot是基于Node.js开发的,幸运的是星图平台已经预装了Node.js环境。我们只需要一条命令就能完成安装:

npm i -g clawdbot

安装过程大概需要1-2分钟,你会看到类似下面的输出:

Clawdbot安装过程

看到“added XX packages”的提示,就说明安装成功了。

3.2 初始化配置

安装完成后,我们需要进行初始配置。输入以下命令启动配置向导:

clawdbot onboard

这个向导会引导你完成基础设置。对于大多数选项,我们可以先选择默认值或者跳过,后续在Web界面中再详细配置。

配置过程中,你会看到几个关键步骤:

  1. 选择运行模式:选择“local”(本地模式)
  2. 设置工作目录:使用默认的/root/clawd即可
  3. 配置网关端口:默认是18789,我们保持默认
  4. 认证方式:选择“token”方式,并设置一个简单的token,比如“csdn”

完成配置后,Clawdbot会生成配置文件,位置在~/.clawdbot/clawdbot.json

3.3 启动网关并访问控制面板

现在启动Clawdbot的网关服务:

clawdbot gateway

启动成功后,你会看到服务正在监听18789端口。接下来我们需要访问控制面板。

访问地址的构造方法

  • 你的实例原始地址可能是:https://gpu-podXXXX-8888.web.gpu.csdn.net/
  • 把端口号8888换成18789:https://gpu-podXXXX-18789.web.gpu.csdn.net/

在浏览器中打开这个地址,如果一切正常,你应该能看到Clawdbot的登录界面。

Clawdbot控制面板

4. 第三步:解决网络访问问题

4.1 为什么页面是空白的?

很多同学在这一步会遇到问题:打开控制面板地址,页面是空白的。这是因为Clawdbot默认只监听本地地址(127.0.0.1),外部网络无法访问。

查看当前监听状态:

netstat -tlnp | grep 18789

如果显示127.0.0.1:18789,说明只监听本地。我们需要修改配置,让它监听所有网络接口。

4.2 修改配置文件

打开Clawdbot的配置文件:

vim ~/.clawdbot/clawdbot.json

找到gateway部分,修改以下三个关键配置:

"gateway": {
    "mode": "local",
    "bind": "lan",  // 把"loopback"改为"lan"
    "port": 18789,
    "auth": {
      "mode": "token",
      "token": "csdn"  // 设置你的访问token
    },
    "trustedProxies": ["0.0.0.0/0"],  // 添加这一行,信任所有代理
    "controlUi": {
      "enabled": true,
      "allowInsecureAuth": true
    }
}

修改说明

  • bind: "lan":让服务监听所有网络接口,不只是本地
  • trustedProxies: ["0.0.0.0/0"]:信任所有代理转发,避免网络问题
  • token: "csdn":设置一个简单的访问密码

保存修改后,重启Clawdbot网关:

# 先按Ctrl+C停止当前服务
# 然后重新启动
clawdbot gateway

再次检查监听状态:

netstat -tlnp | grep 18789

现在应该显示0.0.0.0:18789,说明已经可以外部访问了。

4.3 登录控制面板

刷新浏览器页面,这次应该能看到登录界面了。输入刚才设置的token“csdn”,就能进入控制面板。

控制面板登录

登录成功后,你会看到Clawdbot的管理界面。到这里,我们的“智能管家”已经安装配置完成。

5. 第四步:连接AI大脑和智能管家

5.1 配置模型连接

现在我们要告诉Clawdbot:“请使用我们刚才部署的Qwen3-VL:30B模型”。

再次编辑配置文件:

vim ~/.clawdbot/clawdbot.json

在配置文件中添加模型提供商配置。找到models.providers部分,添加以下内容:

"models": {
  "providers": {
    "my-ollama": {
      "baseUrl": "http://127.0.0.1:11434/v1",
      "apiKey": "ollama",
      "api": "openai-completions",
      "models": [
        {
          "id": "qwen3-vl:30b",
          "name": "Local Qwen3 30B",
          "contextWindow": 32000
        }
      ]
    }
  }
}

然后找到agents.defaults部分,设置默认模型:

"agents": {
  "defaults": {
    "model": {
      "primary": "my-ollama/qwen3-vl:30b"
    }
  }
}

5.2 完整的配置文件参考

如果你不确定怎么修改,可以直接使用下面的完整配置。先备份原来的配置文件,然后用这个覆盖:

{
  "meta": {
    "lastTouchedVersion": "2026.1.24-3",
    "lastTouchedAt": "2026-01-29T09:43:42.012Z"
  },
  "wizard": {
    "lastRunAt": "2026-01-29T09:43:41.997Z",
    "lastRunVersion": "2026.1.24-3",
    "lastRunCommand": "onboard",
    "lastRunMode": "local"
  },
  "auth": {
    "profiles": {
      "qwen-portal:default": {
        "provider": "qwen-portal",
        "mode": "oauth"
      }
    }
  },
  "models": {
    "providers": {
      "my-ollama": {
        "baseUrl": "http://127.0.0.1:11434/v1",
        "apiKey": "ollama",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen3-vl:30b",
            "name": "Local Qwen3 32B",
            "reasoning": false,
            "input": ["text"],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 32000,
            "maxTokens": 4096
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "my-ollama/qwen3-vl:30b"
      },
      "models": {
        "my-ollama/qwen3-vl:30b": {
          "alias": "qwen"
        }
      },
      "workspace": "/root/clawd",
      "compaction": {
        "mode": "safeguard"
      },
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },
  "messages": {
    "ackReactionScope": "group-mentions"
  },
  "commands": {
    "native": "auto",
    "nativeSkills": "auto"
  },
  "gateway": {
    "port": 18789,
    "mode": "local",
    "bind": "lan",
    "controlUi": {
      "enabled": true,
      "allowInsecureAuth": true
    },
    "auth": {
      "mode": "token",
      "token": "csdn"
    },
    "trustedProxies": ["0.0.0.0/0"],
    "tailscale": {
      "mode": "off",
      "resetOnExit": false
    }
  },
  "skills": {
    "install": {
      "nodeManager": "npm"
    }
  },
  "plugins": {
    "entries": {
      "qwen-portal-auth": {
        "enabled": true
      }
    }
  },
  "hooks": {
    "internal": {
      "enabled": true,
      "entries": {
        "session-memory": {
          "enabled": true
        }
      }
    }
  }
}

5.3 测试连接是否成功

保存配置文件后,重启Clawdbot服务。然后打开一个新的终端窗口,监控GPU使用情况:

watch nvidia-smi

这个命令会实时显示GPU的状态。现在回到Clawdbot的控制面板,在Chat页面发送一条消息:

Clawdbot聊天测试

如果一切正常,你会看到:

  1. Clawdbot返回了AI的回复
  2. nvidia-smi监控窗口中,GPU显存使用率明显上升
  3. 模型开始“思考”并生成回复

GPU监控显示

恭喜! 到这里,你已经成功搭建了一个私有化的AI助手。它运行在你自己的服务器上,通过Clawdbot提供Web聊天界面。

6. 常见问题与解决方案

在部署过程中,你可能会遇到一些问题。这里我总结了一些常见问题和解决方法:

6.1 控制面板无法访问

问题:修改配置后,还是无法访问控制面板。

解决步骤

  1. 检查Clawdbot是否正在运行:ps aux | grep clawdbot
  2. 检查端口监听状态:netstat -tlnp | grep 18789
  3. 确认配置文件中bind设置为"lan"
  4. 确认trustedProxies包含"0.0.0.0/0"

6.2 模型无法响应

问题:Clawdbot能收到消息,但AI不回复。

排查方法

  1. 检查Ollama服务是否运行:curl http://127.0.0.1:11434/api/tags
  2. 检查Clawdbot日志:在运行clawdbot gateway的终端查看错误信息
  3. 确认模型配置中的baseUrl正确:应该是http://127.0.0.1:11434/v1

6.3 GPU显存不足

问题:模型响应很慢,或者直接报错。

可能原因

  • Qwen3-VL:30B需要大约30GB显存来运行
  • 如果显存不足,可以尝试量化版本,但效果会有所下降

解决方案: 在星图平台选择更高配置的实例,确保有足够的显存。

6.4 配置文件修改错误

问题:修改配置文件后服务无法启动。

快速恢复

# 备份错误配置
cp ~/.clawdbot/clawdbot.json ~/.clawdbot/clawdbot.json.bak

# 恢复默认配置
clawdbot onboard --reset

然后重新按照教程配置即可。

7. 总结与下一步

通过本教程,我们完成了三个重要步骤:

7.1 我们已经完成的工作

  1. 部署了强大的AI大脑:在星图平台一键部署了Qwen3-VL:30B多模态大模型
  2. 搭建了智能管家:安装配置了Clawdbot作为AI助手的管理平台
  3. 实现了本地对话:通过Web界面与私有化AI进行对话

现在你拥有的是一个完全私有化的AI助手,所有对话数据都在你自己的服务器上,安全可控。

7.2 实际应用场景

这个私有化AI助手可以用于:

  • 个人学习助手:解答技术问题、帮助理解复杂概念
  • 办公效率工具:帮助撰写邮件、整理会议纪要、分析数据
  • 创意工作伙伴:协助写作、头脑风暴、内容创作
  • 多模态应用:分析图片内容、解读图表数据

7.3 下一步可以做什么?

如果你想让这个AI助手更加实用,可以考虑:

  1. 接入更多平台:除了Web界面,还可以接入飞书、微信等常用工具
  2. 定制专属功能:根据你的需求,训练特定的技能
  3. 优化响应速度:调整参数配置,提升对话体验
  4. 扩展多模型支持:除了Qwen3-VL,还可以接入其他AI模型

最重要的提醒:记得定期保存你的工作。星图平台的实例在停止后数据可能会丢失,重要的配置和代码要及时备份。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐