logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

s00_从 Agent Loop 到 Agent Harness:一篇讲透智能体工程的架构、流程与设计取舍

本文系统梳理了智能体工程从基础循环到完整架构的演进路径,提出了"Agent Harness"概念作为智能体的完整运行时系统。文章通过11个主题章节的渐进式讲解,展示了如何将模型逐步嵌入到包含执行闭环、工具扩展、状态管理、记忆机制等关键组件的工程化系统中。核心观点认为智能体不是简单的"会调用工具的模型",而是需要被置于可持续运行的系统环境中,该系统需解决执行闭

#AI#架构
s09_智能体团队协作设计:为什么 Agent 真正像团队一样工作,离不开持久队友和文件邮箱

本文探讨了智能体团队协作设计的核心要素,指出真正的团队协作不仅需要多个模型并行工作,更需要建立持久化的组织结构。文章对比了临时子代理与固定队友的区别,强调后者需要具备身份标识、状态管理和通信通道三个关键特征。通过分析代码实现,重点解读了MessageBus采用JSONL邮箱文件的简洁设计理念,以及TeammateManager如何管理成员名册、状态和线程。文章指出,这种设计以最小成本实现了团队协作

#AI
s08_后台任务设计:为什么 Agent 遇到慢命令时不该原地干等

摘要:Agent后台任务设计的关键思路 本文探讨了Agent系统中后台任务的设计要点。核心观点是:将慢命令的执行与主循环解耦,通过后台线程执行任务,再通过通知机制将结果适时反馈给模型,而非阻塞主流程。具体实现包含三个关键部分: BackgroundManager管理任务状态和通知队列 后台线程执行命令并更新结果 主循环通过检查通知队列获取已完成任务 这种设计保持了主循环的简洁性,同时实现了任务执行

#AI
s06_上下文压缩设计:为什么 Agent 想长期工作,必须学会分层遗忘

文章摘要: 《Agent长期工作的关键:分层记忆管理》探讨了AI Agent在长会话任务中面临的核心挑战——上下文爆炸问题。文章指出,随着任务时间延长,Agent会积累大量工具输出和历史消息,导致"工作内存"过载。作者通过分析开源项目s06_context_compact.py,揭示了三层记忆管理机制:1)对旧工具结果进行轻量压缩,保留行动轨迹;2)在token超阈值时自动存档

#AI
s05_技能按需加载:为什么不要把所有知识都塞进 system prompt

探讨了如何高效管理AI系统中的领域知识。文章通过分析s05_skill_loading.py示例,提出知识应分层注入:第一层提供轻量级"技能目录"(名称、简介、标签),第二层在模型主动请求时才加载详细正文。

#AI
s04_子代理拆分任务:为什么要用上下文隔离保护 Agent 的思路清晰

本文探讨了子代理(subagent)机制的核心价值——通过上下文隔离保护主代理(Agent)的思路清晰度。当主代理执行复杂任务时,中间过程产生的噪音会污染上下文,导致模型难以聚焦主线。

#AI
s01_智能体循环入门-为什么一个while循环就能让AI真正开始干活

摘要 这篇文章深入探讨了智能体(Agent)的核心机制,重点分析了通过一个简单的while循环实现AI自主行动的关键原理。文章指出,Agent与普通问答模型的本质区别在于其"思考-行动-反馈"的闭环能力,而这一能力通过代码中的循环结构实现。作者通过分析示例代码s01_agent_loop.py,揭示了Agent系统三大核心组件:大模型(负责决策)、Bash工具(负责执行)和消息

#AI
从“能聊”到“能推进”:我如何把 AI 协作做成一个可落地的 SDD 编排器

很多 AI 协作的问题,不是模型不够强,而是项目推进没有工程化。本文复盘我如何把长期协作经验收成一个可落地的 SDD 编排器,用阶段门禁、状态卡、联动矩阵、execution-contract 和 handoff 协议,把 AI 协作从“能聊”推进到“可恢复、可交接、可落地”。

#AI
一文教你OpenClaw Docker 部署并调用本地Qwen3.5 9B模型

摘要: 本文详细介绍了在 Ubuntu 24.04 系统上通过 Docker 部署 Ollama 并运行 Qwen3.5-9B(Q8_0量化模型)的完整流程,同时对接 OpenClaw 实现 Web 交互。关键步骤包括:环境检测(NVIDIA驱动、Docker)、Docker版Ollama的安装与模型拉取(注意数据持久化),以及OpenClaw的配置与权限管理。重点解决了GPU支持、端口冲突、用户

#docker
从 Scene 到 Identity:我如何给 AI 助手设计“场景 → 身份”的协作执行层

很多 AI 助手的问题,不是没有规则,而是“规则很清楚,但聊起来还是不对劲”。我在设计长期 AI 协作系统时也踩到了这个坑:Scene / Mode / Special Mode 解决了结构判断,却没有解决真实对话中的协作体感。于是我继续补出了一层“场景 → 身份(Scene → Identity)”机制,让 AI 在不同场景下切换不同协作姿态,而不是切换成不同人格。这篇文章会分享我的完整思路、具

#人工智能
    共 30 条
  • 1
  • 2
  • 3
  • 请选择