Openclaw配置本地模型Ollama向导

 

使用以下命令启动配置:

 

1. openclaw onboard

 

配置流程

1。安全警告输入 Yes 

2。选择模式 QuickStart 

3.Model Provider选择 0llama (或 Custom Provider) 

4.API Base URL http://localhost:11434/v1 

5.API Key填写 ollama (或任何非空字符串) 

6.Endpoint Compatibility OpenAI-compatible 

7.Model ID输入你拉取的模型名称(例如 qwen2.5:7b 

8。完成后重启

 

1. openclaw restart

 

 

 

 

 

 

 

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐