openclaw 配置文件说明
表明使用的 API 类型为 OpenAI 兼容的完成接口,意味着该配置可以使用类似 OpenAI 的完成请求方式与 DeepSeek 模型进行交互。‘order’ 可能用于指定认证配置文件的使用顺序,当进行认证操作时,系统会按照 ‘order’ 中指定的顺序依次尝试使用各个配置文件进行认证。模型的上下文窗口大小为 128000 个标记(tokens),这表示模型在处理输入时能够考虑的最大标记数量。
1. auth 配置
"auth": {
"profiles": {
"deepseek:default": {
"provider": "deepseek",
"mode": "api_key"
}
},
"order": {
"deepseek": [
"deepseek:default"
]
}
}
‘profiles’ 用于定义不同的认证配置文件 如不同的用户名、密码、令牌等,以适用于不同的使用场景或环境
‘order’ 可能用于指定认证配置文件的使用顺序,当进行认证操作时,系统会按照 ‘order’ 中指定的顺序依次尝试使用各个配置文件进行认证。
{
"auth": {
"profiles": {
"deepseek:default": {
"provider": "deepseek",
"mode": "api_key"
},
"otherprovider:default": {
"provider": "otherprovider",
"mode": "username_password"
}
},
"order": {
"deepseek": [
"deepseek:default"
],
"otherprovider": [
"otherprovider:default"
]
}
}
}
2. models 模块
"models": {
"mode": "merge",
"providers": {
"deepseek": {
"baseUrl": "https://api.deepseek.com/v1",
"api": "openai-completions",
"models": [
{
"id": "deepseek-chat",
"name": "DeepSeek Chat",
"reasoning": false,
"input": [
"text"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 8192
}
]
}
}
},
1. "mode": "merge"
"mode" 表示配置的合并模式,这里设置为 "merge",意味着在与其他配置合并时采用合并的策略,可能会将相同的配置项进行合并处理。
2. "providers"
这是一个对象,用于定义不同的模型提供者,这里只有一个提供者 "deepseek"。
2.1 "baseUrl": "https://api.deepseek.com/v1"
该字段指定了 DeepSeek 模型 API 的基础 URL,所有与 DeepSeek 模型的 API 请求都将基于此 URL 进行构建
2.2 "api": "openai-completions"
表明使用的 API 类型为 OpenAI 兼容的完成接口,意味着该配置可以使用类似 OpenAI 的完成请求方式与 DeepSeek 模型进行交互。
2.3 "models"
这是一个数组,包含了该提供者下的具体模型信息,这里只有一个模型 "deepseek-chat"
"id": "deepseek-chat" 模型的唯一标识符,用于在代码或配置中引用该模型
"name": "DeepSeek Chat" 模型的友好名称,方便用户识别该模型
"reasoning": false 表示该模型是否具备推理能力,这里设置为 false,即该模型不具备推理能力
"input": [ "text" ] 指定模型的输入类型,这里表示模型只接受文本类型的输入
"cost"
"cost": {输入数据的成本为 0。
"input": 0, "output": 0,输出数据的成本为 0。 "cacheRead": 0,从缓存中读取数据的成本为 0。 "cacheWrite": 0 向缓存中写入数据的成本为 0。 },
contextWindow": 128000 模型的上下文窗口大小为 128000 个标记(tokens),这表示模型在处理输入时能够考虑的最大标记数量。
"maxTokens": 8192 模型每次生成输出时最多可以生成 8192 个标记
agent 模块
"agents": { //对象用于对智能体进行配置
"defaults": {
"sandbox": { //设置工作空间路径,其作用是为智能体的运行提供一个相对隔离的环境。在这个环境中,智能体可以执行任务而不会影响到其他系统资源或数据。例如,可能是指定一个特定的文件夹路径,智能体在该文件夹内进行文件读写等操作。
"workspaceRoot": "D:/develop/openclaw"
},
"model": { //用于指定默认的模型。一般采用 provider/llm 格式,即前面是 provider 名称,后面是模型 id。如在示例配置中 primary: "ollama/llama3.3",表示默认使用 ollama 这个 provider 下的 llama3.3 模型
"primary": "deepseek/deepseek-chat"
},
"models": { // 列表列出了所有可用的模型。每个模型可以有一些额外的配置,如 alias 用于给模型设置别名,方便在使用时引用。例如 "zai/glm-4.7": {"alias": "GLM"},这样在后续使用中就可以用 GLM 来指代 zai/glm-4.7 模型
"deepseek/deepseek-chat": {
"alias": "DeepSeek"
}
},
"workspace": "D:/develop/openclaw", //类似于 sandbox,是为智能体提供一个工作的空间。不同的是,workspace 更侧重于智能体在执行任务过程中保存临时文件、记录执行状态等操作的空间
"compaction": { //用于设置模式。不过在提供的参考内容中没有详细描述其具体作用,一般来说,在数据处理相关场景下,compaction 可能是指对数据进行压缩、整理等操作模式的设置,以优化数据存储和处理效率。
"mode": "safeguard"
},
"maxConcurrent": 4, //用于设置最大并发数。它限制了同时运行的任务数量,避免因过多的并发任务导致系统资源耗尽或性能下降。例如,设置 maxConcurrent: 5,则智能体最多同时执行 5 个任务
"subagents": { //用于配置子智能体。当主智能体需要将任务分配给多个子智能体协同完成时,可以通过 subagents 来定义这些子智能体的相关信息,如模型、权限等。
"maxConcurrent": 8
}
}
},
"messages": { //部分用于消息配置,ackReactionScope: 'group-mentions' 表示确认反应的范围限定在群组提及。当消息在群组中被提及(例如 @ 某个成员)时,才会触发相应的确认反应机制。这有助于筛选出特定类型的消息进行处理,避免对所有消息都进行不必要的确认操作。
"ackReactionScope": "group-mentions"
},
"commands": { //部分用于配置命令行行为,包含两个参数
"native": "auto", //本地命令处理设置为 auto。native 参数有三种取值:auto、enabled 和 disabled。auto 表示系统会自动根据环境和配置来决定是否启用本地命令处理;enabled 表示强制启用本地命令处理;disabled 表示禁用本地命令处理
"nativeSkills": "auto" //本地技能处理设置为 auto。与 native 类似,nativeSkills 也有三种取值,auto 表示系统自动决定是否启用本地技能处理。
},
"channels": {//部分用于配置不同的通信渠道
"feishu": {
"enabled": true,
"appId": "xxxxx",
"appSecret": "xxx",
"domain": "feishu",
"groupPolicy": "disabled"
}
},
"gateway": { //网关配置
"port": 18789, // 网关监听的端口号为 18789
"mode": "local", //网关的运行模式为 "local",意味着它可能只接受本地连接。
"bind": "loopback",// 绑定到 "loopback"(即 127.0.0.1 或 localhost),表示网关只接受来自本机的连接请求。
"auth": {//认证配置
"mode": "token", //认证模式为 "token",意味着客户端需要提供有效的令牌(token)才能访问网关
"token": "yh123456" //用于认证的令牌值为 "yh123456"。这是一个简单的示例令牌,在实际应用中,你应该使用更复杂、更安全的令牌值。
},
"tailscale": { //与 Tailscale 相关的配置(Tailscale 是一个 VPN 服务,用于简化网络配置和安全性
"mode": "off", // 设置为 "off" 表示 Tailscale 功能已禁用。
"resetOnExit": false //设置为 false,表示当网关退出时,不会重置 Tailscale 相关配置或状态
}
},
"skills": { //定义了应用的各种技能或功能模块的配置
"install": { // 是一个用于安装其他技能或插件的技能。
"nodeManager": "npm" //设置为 "npm",表示这个安装技能使用 npm(Node Package Manager)作为节点包管理器来安装和管理依赖项或插件。
}
},
"plugins": {//插件入口
"entries": {//定义了插件的启用状态
"feishu-openclaw-plugin": { //这是一个具体的插件名称,其enabled属性被设置为true,表示该插件已启用。
"enabled": true
},
"feishu": { //这可能是另一个与飞书(Feishu,也称为Lark Suite)相关的插件或集成,同样被设置为启用状态。
"enabled": true
}
},
"installs": { //提供了关于已安装插件的详细信息。
"feishu-openclaw-plugin": { //插件名称。
"source": "npm", //插件的来源,这里是npm,表示该插件是通过Node Package Manager(npm)安装的。
"spec": "@larksuiteoapi/feishu-openclaw-plugin", //插件的具体规格或包名,这里是@larksuiteoapi/feishu-openclaw-plugin
"installPath": "C:\\Users\\Administrator\\.openclaw\\extensions\\feishu-openclaw-plugin",//插件在本地文件系统上的安装路径
"version": "2026.3.8", //插件的版本号
"installedAt": "2026-03-12T08:23:21.170Z" //插件的安装时间,
}
}
},
"logging": { //日志文件
"file": "D:\\develop\\openclaw\\logs\\openclaw.log", //文件地址
"level": "info" //日志级别 debug/info/warn/error
}
更多推荐

所有评论(0)