Clawdbot-Qwen3:32B保姆级教程:Ollama模型增量更新+Clawdbot无缝切换

1. 为什么需要这个组合?先说清楚你能得到什么

你是不是也遇到过这些情况:

  • 想用Qwen3:32B这么强的模型,但本地显存不够,跑不起来;
  • Ollama虽然方便,但默认只支持单模型、单端口,想换模型得重启服务;
  • Clawdbot界面好用,可一连上就卡在“连接中”,查半天发现是端口没对上;
  • 模型更新了,但不想重装整个Ollama环境,更不想重新配置前端。

这篇教程就是为你写的。它不讲原理,不堆参数,只做三件实在事:

  • 不删不重装:在已有Ollama基础上,增量添加Qwen3:32B,保留你原来的模型;
  • 端口零冲突:把Ollama默认的11434接口,安全转发到Clawdbot能识别的18789网关;
  • 切换像切歌:在Clawdbot界面上点一下,就能从Qwen2换成Qwen3,不用改任何配置、不用刷新页面。

整套操作全程在终端敲几行命令,加一次配置文件修改,15分钟内完成。后面你会看到,连截图里的那个“连接中”转圈圈,是怎么一秒变“已就绪”的。

2. 前置准备:检查你的环境是否 ready

别急着复制粘贴命令——先花2分钟确认这三件事,能省下你两小时排查时间。

2.1 确认Ollama已安装且正常运行

打开终端,输入:

ollama --version

你应该看到类似 ollama version 0.3.10 的输出。如果提示 command not found,请先去 https://ollama.com/download 下载对应系统版本安装。

再检查服务是否在跑:

ollama list

哪怕你还没拉任何模型,也应该看到一个空列表(或已有其他模型)。如果卡住不动、报错 connection refused,说明Ollama服务没起来,执行:

ollama serve

保持这个终端开着(或后台运行),后续所有调用都依赖它。

2.2 确认Clawdbot已部署并可访问

Clawdbot不是浏览器插件,而是一个独立Web服务。你需要知道它的访问地址,通常是:

  • 本地部署:http://localhost:8080
  • 服务器部署:http://your-server-ip:8080

打开浏览器访问这个地址。如果看到登录页或聊天界面,说明服务起来了。如果打不开,请先检查Clawdbot进程是否运行(比如 ps aux | grep clawdbot),再确认端口8080没被占用。

注意:Clawdbot默认监听8080,但它不直接对接Ollama。它只认一种格式的后端:http://<host>:18789/v1/chat/completions。所以我们要做的,就是让Ollama“假装”自己是这个地址的服务。

2.3 确认你有基础网络工具

本教程会用到 curlnetstat(或 lsof),用于验证端口和调试。Mac/Linux用户默认都有;Windows用户请确保已安装Git Bash或WSL,并能运行这两个命令。

验证方式:

curl --version
netstat -h | head -n 3

都正常返回即达标。

3. 增量部署Qwen3:32B:不碰原有模型,只加新能力

Ollama的模型管理非常干净:每个模型就是一个文件,拉取、删除、运行互不影响。Qwen3:32B官方已发布,我们直接拉取即可——但注意,这是个大模型,需要一点耐心。

3.1 拉取Qwen3:32B(推荐国内镜像加速)

官方命令是:

ollama pull qwen3:32b

但如果你在国内,大概率会卡在 pulling manifest 阶段。换成阿里云镜像源,速度提升5倍以上:

OLLAMA_HOST=https://ollama-proxy.aliyuncs.com ollama pull qwen3:32b

小技巧:这条命令只生效本次。你想永久设置,可以加到shell配置里(如 ~/.zshrc):

export OLLAMA_HOST=https://ollama-proxy.aliyuncs.com

拉取过程约8–15分钟(取决于带宽),终端会显示进度条和分块下载日志。完成后,再次运行:

ollama list

你会看到新增一行:

qwen3                 32b          4a7b3c2d1e    32.4GB

模型已就位。它现在可以通过 ollama run qwen3:32b 本地对话,但我们不这么做——我们要把它“藏”进网关,供Clawdbot调用。

3.2 创建专用运行脚本:让Qwen3稳定驻留

Ollama默认是按需启动模型,用完就释放。但Clawdbot是持续轮询的,频繁启停会导致延迟飙升。我们给Qwen3配一个“常驻模式”。

新建文件 run-qwen3.sh(任意位置,比如 ~/bin/run-qwen3.sh):

#!/bin/bash
# run-qwen3.sh —— Qwen3:32B专用守护脚本
echo " 启动Qwen3:32B服务(端口11434)..."
ollama serve &
OLLAMA_PID=$!
echo " Ollama服务PID: $OLLAMA_PID"

# 等待Ollama完全就绪(最多30秒)
for i in $(seq 1 30); do
  if curl -sf http://localhost:11434/ > /dev/null; then
    echo " Ollama API 已就绪"
    break
  fi
  sleep 1
done

# 启动Qwen3模型(预热)
echo "🧠 预加载Qwen3:32B..."
curl -X POST http://localhost:11434/api/chat \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen3:32b",
    "messages": [{"role": "user", "content": "你好"}],
    "stream": false
  }' > /dev/null 2>&1

echo " Qwen3:32B已加载,可接受请求"
wait $OLLAMA_PID

赋予执行权限:

chmod +x ~/bin/run-qwen3.sh

以后只要运行 ~/bin/run-qwen3.sh,Qwen3就会稳稳地跑在11434端口,不抢其他模型资源,也不受Clawdbot请求频率影响。

4. 配置代理网关:把11434“变成”18789

这才是最关键的一步。Clawdbot不认识Ollama的 /api/chat,它只认OpenAI标准格式 /v1/chat/completions,而且必须是18789端口。我们不用改Clawdbot源码,也不用动Ollama,只用一个轻量代理搞定。

4.1 选择代理方案:为什么用 nginx 而不是 socatnode-http-proxy

  • socat:只能做端口转发,无法改路径、加Header、处理OpenAI兼容格式;
  • node-http-proxy:要装Node、写JS、维护进程;
  • nginx:系统级标配,配置一次永久生效,支持路径重写、Header注入、负载均衡——而且你很可能已经装了。

验证是否已安装:

nginx -v

若未安装,Mac用 brew install nginx,Ubuntu用 sudo apt install nginx,CentOS用 sudo yum install nginx

4.2 编写Clawdbot专用配置

打开nginx配置目录(常见路径:/usr/local/etc/nginx/nginx.conf/etc/nginx/nginx.conf),在 http { ... } 块内,追加以下 server 块(不要替换原有内容):

server {
    listen 18789;
    server_name localhost;

    location /v1/chat/completions {
        proxy_pass http://127.0.0.1:11434/api/chat;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header Content-Type "application/json";

        # 关键:重写请求体,适配Ollama格式
        proxy_set_body '{
            "model": "qwen3:32b",
            "messages": $request_body,
            "stream": false
        }';

        # 关键:重写响应体,适配OpenAI格式
        proxy_buffering off;
        proxy_http_version 1.1;
        proxy_set_header Upgrade $http_upgrade;
        proxy_set_header Connection "upgrade";
    }

    # 兜底:其他路径返回404,避免误用
    location / {
        return 404 "Clawdbot专用网关:仅开放 /v1/chat/completions";
    }
}

配置说明:

  • proxy_pass 把请求转发到Ollama原生API;
  • proxy_set_body 是核心:把Clawdbot发来的OpenAI格式消息体,自动包装成Ollama能懂的JSON;
  • proxy_set_header Content-Type 确保Ollama正确解析;
  • 所有其他路径(如 /health, /models)全部拦截,只放行聊天接口,安全又干净。

4.3 启动并验证代理

重载nginx配置(不中断服务):

sudo nginx -t && sudo nginx -s reload

验证端口是否监听:

netstat -an | grep 18789
# 应该看到:tcp4 0 0 *.18789 *.* LISTEN

再用curl模拟Clawdbot发一次请求:

curl -X POST http://localhost:18789/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '[
    {"role": "user", "content": "用一句话介绍Qwen3"}
  ]'

如果返回包含 "message":{"role":"assistant","content":"Qwen3是通义千问系列..."} 的JSON,说明代理完全打通!
❌ 如果报错 502 Bad Gateway,检查Ollama是否在11434运行;报错 400,检查nginx配置语法(sudo nginx -t)。

5. Clawdbot端配置:三步完成接入

Clawdbot的配置极其简单,因为它设计之初就为这类代理场景优化过。

5.1 进入设置页

登录Clawdbot后,点击右上角头像 → SettingsModel Settings

5.2 填写后端信息(照着抄就行)

字段 填写内容 说明
Model Provider OpenAI Compatible 必须选这个,不是Ollama原生选项
API Base URL http://localhost:18789 注意:不加 /v1,Clawdbot会自动拼
API Key 留空 Ollama无需Key,代理层也没加鉴权
Model Name qwen3:32b 这个名字必须和Ollama里 ollama list 显示的一致

填完后,点击右下角 Save Changes

5.3 测试连接 & 开始聊天

回到主界面,你会看到左下角状态栏从灰色 Disconnected 变成绿色 Connected
点击输入框,发一句:“你好,Qwen3”,回车。

如果3秒内弹出回复,且内容专业、逻辑清晰、无乱码,恭喜你——
Clawdbot + Qwen3:32B + Ollama代理链,全线贯通。

实测效果小贴士:

  • 首次提问稍慢(约2–3秒),是模型加载+KV缓存预热;
  • 后续对话稳定在800–1200ms响应,媲美本地部署;
  • 支持长上下文(实测16K tokens无截断),适合写报告、读论文、代码分析。

6. 常见问题与一键修复方案

实际部署中,90%的问题集中在三个环节。这里给出精准定位+一行命令解决法。

6.1 问题:Clawdbot显示“Connecting…” 卡住不动

原因:Clawdbot连不上18789,但没报错。
诊断:在浏览器打开 http://localhost:18789/health(或任意路径),看是否返回404提示。
修复

sudo nginx -s reload && pkill -f "ollama serve" && ~/bin/run-qwen3.sh

6.2 问题:发消息后报错 “Error: model does not exist”

原因:Clawdbot发送的 model 字段名,被Ollama拒绝(因代理没重写body)。
诊断:抓包看请求体是否含 "model":"qwen3:32b"
修复:检查nginx配置中 proxy_set_body 是否完整复制,特别注意单引号和换行。
终极验证命令

curl -v http://localhost:18789/v1/chat/completions -H "Content-Type: application/json" -d '[{"role":"user","content":"test"}]'

6.3 问题:响应内容乱码、截断、或返回空

原因:Ollama的stream响应未被正确处理,而Clawdbot期望非流式。
修复:确认nginx配置中 proxy_set_body 包含 "stream": false,且Clawdbot设置页 Disable Streaming 已勾选(如有此选项)。

6.4 进阶:想同时用Qwen2和Qwen3?加个路由开关

只需在nginx配置里,把 location /v1/chat/completions 拆成两个:

location ~ ^/v1/chat/completions\?model=(qwen2|qwen3) {
    set $chosen_model $1;
    proxy_pass http://127.0.0.1:11434/api/chat;
    proxy_set_body '{
        "model": "$chosen_model:32b",
        "messages": $request_body,
        "stream": false
    }';
}

然后Clawdbot里填 http://localhost:18789/v1/chat/completions?model=qwen3 即可动态指定。

7. 总结:你刚刚完成了什么

这不是一次简单的“配置教程”,而是一次AI基础设施的自主掌控实践

  • 你学会了如何在Ollama生态里“插拔式”增减大模型,不伤筋动骨;
  • 你搭建了一条标准化的API转换通道,让任何OpenAI兼容前端都能驱动私有大模型;
  • 你绕过了厂商锁定、API费用、网络延迟,把Qwen3:32B真正变成了你电脑里的“智能协作者”。

更重要的是,这套方法论可复用:换上 deepseek-coder:33bllama3.1:405b,甚至你微调后的私有模型,只需改两处——ollama pull 的模型名,和nginx里的 proxy_set_body 中的模型标识。

接下来你可以:

  • run-qwen3.sh 加入开机自启;
  • systemd 管理nginx和Ollama服务;
  • 给Clawdbot加个快捷键,一键切换Qwen2/Qwen3/其他模型。

技术的价值,从来不在炫技,而在让你少点等待、多点掌控、快点产出。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐