大家好,我是涛哥,欢迎来到我的空间。

网上关于“小龙虾”的安装教程已有很多,这里不再赘述。但在线使用时tokens消耗较快,如果本地的电脑配置还可以的话可以尝试下地部署方案。

一、本地模型

我之前写过本地大模型的搭建教程,大家可以到我的空间里查看。

主要使用的是 Ollama,现在已有 GUI 界面,操作比较简单。

我使用的模型是:qwen2.5:3b。

二、配置文件说明

主要配置两块内容

1、models下的providers 基础模型

"ollama": {
        "baseUrl": "http://127.0.0.1:11434/v1",  //本地地址
        "apiKey": "1111111",                    //随意填写
        "auth": "api-key",                      //随意填写  
        "api": "ollama",                        //随意填写  
        "injectNumCtxForOpenAICompat": false,
        "models": [
          {
            "id": "qwen2b",
            "name": "qwen2.5:3b",
            "reasoning": false
          }
        ]
      }

启动时可以看到agent使用的模型。

当我把模型设置为ollama111的时候,启动项目已经改变,但不能回复问题了。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐