Openclaw标准安装 配置本地模型Ollama
3.Model Provider选择 0llama (或 Custom Provider)7.Model ID输入你拉取的模型名称(例如 qwen2.5:7b。5.API Key填写 ollama (或任何非空字符串)Openclaw配置本地模型Ollama向导。选择模式 QuickStart。安全警告输入 Yes。
·
Openclaw配置本地模型Ollama向导
使用以下命令启动配置:
1. openclaw onboard
配置流程
1。安全警告输入 Yes
2。选择模式 QuickStart
3.Model Provider选择 0llama (或 Custom Provider)
4.API Base URL http://localhost:11434/v1
5.API Key填写 ollama (或任何非空字符串)
6.Endpoint Compatibility OpenAI-compatible
7.Model ID输入你拉取的模型名称(例如 qwen2.5:7b
8。完成后重启
1. openclaw restart


更多推荐



所有评论(0)