1. auth  配置

 "auth": {
    "profiles": {
      "deepseek:default": {
        "provider": "deepseek",
        "mode": "api_key"
      }
    },
    "order": {
      "deepseek": [
        "deepseek:default"
      ]
    }
  }

‘profiles’ 用于定义不同的认证配置文件 如不同的用户名、密码、令牌等,以适用于不同的使用场景或环境

‘order’ 可能用于指定认证配置文件的使用顺序,当进行认证操作时,系统会按照 ‘order’ 中指定的顺序依次尝试使用各个配置文件进行认证。

{
    "auth": {
        "profiles": {
            "deepseek:default": {
                "provider": "deepseek",
                "mode": "api_key"
            },
            "otherprovider:default": {
                "provider": "otherprovider",
                "mode": "username_password"
            }
        },
        "order": {
            "deepseek": [
                "deepseek:default"
            ],
            "otherprovider": [
                "otherprovider:default"
            ]
        }
    }
}

2. models 模块

 "models": {
    "mode": "merge",
    "providers": {
      "deepseek": {
        "baseUrl": "https://api.deepseek.com/v1",
        "api": "openai-completions",
        "models": [
          {
            "id": "deepseek-chat",
            "name": "DeepSeek Chat",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 8192
          }
        ]
      }
    }
  },

1. "mode": "merge" 

   "mode" 表示配置的合并模式,这里设置为 "merge",意味着在与其他配置合并时采用合并的策略,可能会将相同的配置项进行合并处理。

2. "providers"

   这是一个对象,用于定义不同的模型提供者,这里只有一个提供者 "deepseek"

  2.1 "baseUrl": "https://api.deepseek.com/v1"

  该字段指定了 DeepSeek 模型 API 的基础 URL,所有与 DeepSeek 模型的 API 请求都将基于此 URL 进行构建

2.2 "api": "openai-completions"

        表明使用的 API 类型为 OpenAI 兼容的完成接口,意味着该配置可以使用类似 OpenAI 的完成请求方式与 DeepSeek 模型进行交互。

2.3 "models"

这是一个数组,包含了该提供者下的具体模型信息,这里只有一个模型 "deepseek-chat"

"id": "deepseek-chat" 模型的唯一标识符,用于在代码或配置中引用该模型

"name": "DeepSeek Chat" 模型的友好名称,方便用户识别该模型

"reasoning": false 表示该模型是否具备推理能力,这里设置为 false,即该模型不具备推理能力

"input": [ "text" ]  指定模型的输入类型,这里表示模型只接受文本类型的输入

"cost"

  "cost": {
  "input": 0, 
输入数据的成本为 0。
  "output": 0,输出数据的成本为 0。
  "cacheRead": 0,从缓存中读取数据的成本为 0。
  "cacheWrite": 0 向缓存中写入数据的成本为 0。
 },

contextWindow": 128000 模型的上下文窗口大小为 128000 个标记(tokens),这表示模型在处理输入时能够考虑的最大标记数量。

"maxTokens": 8192  模型每次生成输出时最多可以生成 8192 个标记

agent 模块

 "agents": {  //对象用于对智能体进行配置
    "defaults": {
 "sandbox": {  //设置工作空间路径,其作用是为智能体的运行提供一个相对隔离的环境。在这个环境中,智能体可以执行任务而不会影响到其他系统资源或数据。例如,可能是指定一个特定的文件夹路径,智能体在该文件夹内进行文件读写等操作。
      "workspaceRoot": "D:/develop/openclaw"  
    },
      "model": {  //用于指定默认的模型。一般采用 provider/llm 格式,即前面是 provider 名称,后面是模型 id。如在示例配置中 primary: "ollama/llama3.3",表示默认使用 ollama 这个 provider 下的 llama3.3 模型
        "primary": "deepseek/deepseek-chat"
      },
      "models": {  // 列表列出了所有可用的模型。每个模型可以有一些额外的配置,如 alias 用于给模型设置别名,方便在使用时引用。例如 "zai/glm-4.7": {"alias": "GLM"},这样在后续使用中就可以用 GLM 来指代 zai/glm-4.7 模型
        "deepseek/deepseek-chat": {
          "alias": "DeepSeek"
        }
      },
      "workspace": "D:/develop/openclaw", //类似于 sandbox,是为智能体提供一个工作的空间。不同的是,workspace 更侧重于智能体在执行任务过程中保存临时文件、记录执行状态等操作的空间
      "compaction": {  //用于设置模式。不过在提供的参考内容中没有详细描述其具体作用,一般来说,在数据处理相关场景下,compaction 可能是指对数据进行压缩、整理等操作模式的设置,以优化数据存储和处理效率。
        "mode": "safeguard"
      },
      "maxConcurrent": 4,  //用于设置最大并发数。它限制了同时运行的任务数量,避免因过多的并发任务导致系统资源耗尽或性能下降。例如,设置 maxConcurrent: 5,则智能体最多同时执行 5 个任务
      "subagents": { //用于配置子智能体。当主智能体需要将任务分配给多个子智能体协同完成时,可以通过 subagents 来定义这些子智能体的相关信息,如模型、权限等。
        "maxConcurrent": 8
      }
    }
  },
 "messages": {  //部分用于消息配置,ackReactionScope: 'group-mentions' 表示确认反应的范围限定在群组提及。当消息在群组中被提及(例如 @ 某个成员)时,才会触发相应的确认反应机制。这有助于筛选出特定类型的消息进行处理,避免对所有消息都进行不必要的确认操作。
    "ackReactionScope": "group-mentions"
  },
  "commands": {  //部分用于配置命令行行为,包含两个参数
    "native": "auto", //本地命令处理设置为 auto。native 参数有三种取值:auto、enabled 和 disabled。auto 表示系统会自动根据环境和配置来决定是否启用本地命令处理;enabled 表示强制启用本地命令处理;disabled 表示禁用本地命令处理
    "nativeSkills": "auto"  //本地技能处理设置为 auto。与 native 类似,nativeSkills 也有三种取值,auto 表示系统自动决定是否启用本地技能处理。
  },
  "channels": {//部分用于配置不同的通信渠道
    "feishu": {
      "enabled": true,
      "appId": "xxxxx",
      "appSecret": "xxx",
      "domain": "feishu",
      "groupPolicy": "disabled"
    }
  },

  "gateway": {  //网关配置
    "port": 18789, // 网关监听的端口号为 18789
    "mode": "local",  //网关的运行模式为 "local",意味着它可能只接受本地连接。
    "bind": "loopback",// 绑定到 "loopback"(即 127.0.0.1 或 localhost),表示网关只接受来自本机的连接请求。
    "auth": {//认证配置
      "mode": "token",  //认证模式为 "token",意味着客户端需要提供有效的令牌(token)才能访问网关
      "token": "yh123456"  //用于认证的令牌值为 "yh123456"。这是一个简单的示例令牌,在实际应用中,你应该使用更复杂、更安全的令牌值。
    },
    "tailscale": {  //与 Tailscale 相关的配置(Tailscale 是一个 VPN 服务,用于简化网络配置和安全性
      "mode": "off",  // 设置为 "off" 表示 Tailscale 功能已禁用。
      "resetOnExit": false  //设置为 false,表示当网关退出时,不会重置 Tailscale 相关配置或状态
    }
  },
  "skills": {  //定义了应用的各种技能或功能模块的配置
    "install": {  // 是一个用于安装其他技能或插件的技能。
      "nodeManager": "npm"  //设置为 "npm",表示这个安装技能使用 npm(Node Package Manager)作为节点包管理器来安装和管理依赖项或插件。
    }
  },
"plugins": {//插件入口 
    "entries": {//定义了插件的启用状态
      "feishu-openclaw-plugin": {  //这是一个具体的插件名称,其enabled属性被设置为true,表示该插件已启用。
        "enabled": true
      },
      "feishu": { //这可能是另一个与飞书(Feishu,也称为Lark Suite)相关的插件或集成,同样被设置为启用状态。
        "enabled": true
      }
    },


    "installs": {  //提供了关于已安装插件的详细信息。
      "feishu-openclaw-plugin": {  //插件名称。
        "source": "npm",  //插件的来源,这里是npm,表示该插件是通过Node Package Manager(npm)安装的。
        "spec": "@larksuiteoapi/feishu-openclaw-plugin", //插件的具体规格或包名,这里是@larksuiteoapi/feishu-openclaw-plugin
        "installPath": "C:\\Users\\Administrator\\.openclaw\\extensions\\feishu-openclaw-plugin",//插件在本地文件系统上的安装路径
        "version": "2026.3.8",  //插件的版本号
        "installedAt": "2026-03-12T08:23:21.170Z"  //插件的安装时间,
      }
    }
  },
  "logging": {  //日志文件
   "file": "D:\\develop\\openclaw\\logs\\openclaw.log",  //文件地址
    "level": "info"  //日志级别  debug/info/warn/error
  }

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐