logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

状态机设计实战:从 INIT 到 FAILED 的可恢复执行流(含幂等与重试策略)

本文探讨如何通过状态机设计将Agent系统从"能跑"升级为"稳定可恢复"的工程系统。文章首先指出缺少状态边界会导致流程卡死、重复执行等问题,提出5个核心状态(INIT、PLAN_READY等)及其流转规则。核心实现包含状态枚举类、转移约束条件和伪代码示例,强调必须配备幂等键、超时控制、重试策略和降级兜底四大机制。最后给出验证清单和常见问题排查方法,指出状态机

文章图片
#数据库#前端#语言模型 +2
项目脚手架实战:30 分钟搭好可运行的 Agent 服务骨架

本文介绍如何快速搭建一个可运行的Agent服务骨架。文章首先指出前两篇方法论和架构设计后,开发者常遇到的工程落地问题,提出30分钟内搭建可运行骨架的目标。随后详细说明环境配置、目录结构设计,并分步骤实现核心功能:1)初始化Python项目环境;2)定义API协议;3)实现Agent核心逻辑(规划器和执行器);4)接入FastAPI路由;5)启动服务验证。最终产出一个具备清晰分层结构、健康检查接口和

文章图片
#人工智能
安装 OpenClaw 时网络怎么配置?一篇讲清模型接入与代理设置

本文针对OpenClaw安装后无法发送请求的问题,重点分析了网络链路配置方案。文章指出关键在于确保本地机器到模型API(如OpenAI)和第三方网关的网络可达性,推荐三种解决方案:系统全局代理(适合新手)、终端环境变量代理(推荐)和模型中转网关(更灵活)。提供了详细的配置示例和最小排错流程,强调网络层而非OpenClaw本身是主要问题来源,建议用户重点关注代理策略和认证配置。最后提醒常见误区,如混

#网络#开发语言#语言模型 +1
如何训练属于自己的 OpenClaw:从“会聊天”到“会做事”

《如何系统训练OpenClaw成为高效助手》摘要:OpenClaw需要系统性训练而非简单使用。首先明确训练目标:建立边界、统一风格、确保执行闭环和持续记忆。训练路径分为五步:1)设定安全边界规则;2)固化表达偏好;3)建立任务闭环流程;4)制定信息分流规则;5)每周复盘优化。通过规则→偏好→闭环→复盘的持续迭代,可将工具从"偶尔聪明"升级为"稳定可靠"的工作

#人工智能#语言模型#深度学习 +2
OpenClaw记忆系统搭建模板

摘要:OpenClaw的记忆系统需通过文件管理实现长期协作,建议建立两层记忆结构(日记层和沉淀层)。推荐目录包含MEMORY.md(长期规则)、USER.md(用户偏好)和每日日志文件。关键是将高价值信息写入长期记忆,日常记录保存到每日文件,并定期维护(每日整理、每周复盘)。核心原则是任务后记录"结论+决策+下一步",坚持使用可显著改善模型健忘问题,使其从聊天工具升级为协作系统

文章图片
#语言模型#人工智能
安装 OpenClaw 时网络怎么配置?一篇讲清模型接入与代理设置

本文针对OpenClaw安装后无法发送请求的问题,重点分析了网络链路配置方案。文章指出关键在于确保本地机器到模型API(如OpenAI)和第三方网关的网络可达性,推荐三种解决方案:系统全局代理(适合新手)、终端环境变量代理(推荐)和模型中转网关(更灵活)。提供了详细的配置示例和最小排错流程,强调网络层而非OpenClaw本身是主要问题来源,建议用户重点关注代理策略和认证配置。最后提醒常见误区,如混

#网络#开发语言#语言模型 +1
OpenClaw 为什么会“健忘”?第一天告诉它的事,第二天它怎么就忘了

摘要:OpenClaw的"隔天失忆"现象常被误认为模型记忆能力不足,实则多因记忆系统运作问题导致。常见原因包括:信息未真正写入记忆、仅保存为临时记录而非长期记忆、会话上下文变更、记忆未能正确加载等。解决思路应聚焦于检查记忆是否有效保存、区分临时与长期记忆、确认会话连续性、确保记忆正确调用。理解这些具体原因比简单归因于"记性差"更有助于问题解决。

#语言模型#人工智能#深度学习
一文讲清 Skills:定义、编排与落地步骤

在做 AI 应用/智能体(Agent)工程时,你很快会发现一个现实问题:同一个“写报告/生成 PDF/改 Word/做表格”的需求,模型有时能做得很好,有时又会跑偏。原因通常不是“模型不行”,而是缺少一套稳定、可复用、可执行的操作规范。skills(技能/操作规程)就是用来解决这个问题的:把某类任务的“标准做法、工具用法、质量检查、输出规范”写成一份可复用的说明,让模型在需要时按这份说明执行,从而

#语言模型#人工智能#深度学习
如何安全地试用 OpenClaw:最小权限、skills 白名单、隔离与升级策略

安全试用 OpenClaw 的核心,不是追求“绝对安全”,而是把它放在一个你能理解、能收敛、能快速丢弃和重建的边界里。官方安全文档已经把前提讲得很清楚:它适合个人助手模型,不适合敌对多租户;一旦你安装了插件,它就属于与你本地代码同等级别的信任;如果你让不受控的人接触同一个 tool-enabled agent,他们共享的其实是同一组委托权限。先缩权限,再谈体验;先做隔离,再谈自动化;先能审计,再谈

#安全#人工智能#语言模型 +1
OpenClaw 火了:它到底强在哪?又危险在哪?

喜欢折腾、愿意学习权限治理的个人/开发者想做自动化、想搭自己的 Agent 工作流的人把它放在“沙箱环境”里做实验与评估的团队。

#人工智能#语言模型#深度学习
    共 11 条
  • 1
  • 2
  • 请选择