首先下载Ollama

配置路径,网络,上下文长度:

然后打开,选择模型,发送你好,进行下载。

Ollama本地部署模型完毕,下一步我们来对接OpenClaw小龙虾。

使用 Ollama 运行本地大模型时,其默认的 API 地址和密钥配置如下:

API 地址(URL)

  • 基础地址‌:http://localhost:11434
  • 常用接口路径‌:
    • 聊天接口(推荐用于对话)‌:http://localhost:11434/api/chat
    • 生成接口(用于补全/单轮生成)‌:http://localhost:11434/api/generate
    • OpenAI 兼容接口(用于对接如 OpenAI 客户端)‌:http://localhost:11434/v1

例如,在使用 curl 或 Python 请求时,若调用聊天功能,应使用:

curl http://localhost:11434/api/chat -X POST -H "Content-Type: application/json" -d '{"model":"llama3","messages":[{"role":"user","content":"你好"}]}'

API 密钥(Key)

  • Ollama 本身不要求真实密钥‌,但部分客户端(如 OpenAI 兼容工具)‌强制要求填写密钥字段‌。
  • 此时可‌任意填写一个非空字符串‌,例如:
    • ollama
    • local-key
    • anything(只要不为空即可)

例如,在使用 OpenAI Python 客户端时需设置:


 

pythonCopy Code

client = OpenAI( base_url='http://localhost:11434/v1', api_key='ollama' # 必填,但实际不验证 )

验证服务是否运行

  1. 确保 Ollama 已启动(安装后通常自动运行)。
  2. 在终端执行:
    
      

    bashCopy Code

    curl http://localhost:11434

    若返回 Ollama is running 或类似内容,说明服务正常。

替换龙虾模型为本地模型,操作如下:

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐