
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文系统梳理了智能体工程从基础循环到完整架构的演进路径,提出了"Agent Harness"概念作为智能体的完整运行时系统。文章通过11个主题章节的渐进式讲解,展示了如何将模型逐步嵌入到包含执行闭环、工具扩展、状态管理、记忆机制等关键组件的工程化系统中。核心观点认为智能体不是简单的"会调用工具的模型",而是需要被置于可持续运行的系统环境中,该系统需解决执行闭
本文探讨了智能体团队协作设计的核心要素,指出真正的团队协作不仅需要多个模型并行工作,更需要建立持久化的组织结构。文章对比了临时子代理与固定队友的区别,强调后者需要具备身份标识、状态管理和通信通道三个关键特征。通过分析代码实现,重点解读了MessageBus采用JSONL邮箱文件的简洁设计理念,以及TeammateManager如何管理成员名册、状态和线程。文章指出,这种设计以最小成本实现了团队协作
摘要:Agent后台任务设计的关键思路 本文探讨了Agent系统中后台任务的设计要点。核心观点是:将慢命令的执行与主循环解耦,通过后台线程执行任务,再通过通知机制将结果适时反馈给模型,而非阻塞主流程。具体实现包含三个关键部分: BackgroundManager管理任务状态和通知队列 后台线程执行命令并更新结果 主循环通过检查通知队列获取已完成任务 这种设计保持了主循环的简洁性,同时实现了任务执行
文章摘要: 《Agent长期工作的关键:分层记忆管理》探讨了AI Agent在长会话任务中面临的核心挑战——上下文爆炸问题。文章指出,随着任务时间延长,Agent会积累大量工具输出和历史消息,导致"工作内存"过载。作者通过分析开源项目s06_context_compact.py,揭示了三层记忆管理机制:1)对旧工具结果进行轻量压缩,保留行动轨迹;2)在token超阈值时自动存档
探讨了如何高效管理AI系统中的领域知识。文章通过分析s05_skill_loading.py示例,提出知识应分层注入:第一层提供轻量级"技能目录"(名称、简介、标签),第二层在模型主动请求时才加载详细正文。
本文探讨了子代理(subagent)机制的核心价值——通过上下文隔离保护主代理(Agent)的思路清晰度。当主代理执行复杂任务时,中间过程产生的噪音会污染上下文,导致模型难以聚焦主线。
摘要 这篇文章深入探讨了智能体(Agent)的核心机制,重点分析了通过一个简单的while循环实现AI自主行动的关键原理。文章指出,Agent与普通问答模型的本质区别在于其"思考-行动-反馈"的闭环能力,而这一能力通过代码中的循环结构实现。作者通过分析示例代码s01_agent_loop.py,揭示了Agent系统三大核心组件:大模型(负责决策)、Bash工具(负责执行)和消息
很多 AI 协作的问题,不是模型不够强,而是项目推进没有工程化。本文复盘我如何把长期协作经验收成一个可落地的 SDD 编排器,用阶段门禁、状态卡、联动矩阵、execution-contract 和 handoff 协议,把 AI 协作从“能聊”推进到“可恢复、可交接、可落地”。
摘要: 本文详细介绍了在 Ubuntu 24.04 系统上通过 Docker 部署 Ollama 并运行 Qwen3.5-9B(Q8_0量化模型)的完整流程,同时对接 OpenClaw 实现 Web 交互。关键步骤包括:环境检测(NVIDIA驱动、Docker)、Docker版Ollama的安装与模型拉取(注意数据持久化),以及OpenClaw的配置与权限管理。重点解决了GPU支持、端口冲突、用户
很多 AI 助手的问题,不是没有规则,而是“规则很清楚,但聊起来还是不对劲”。我在设计长期 AI 协作系统时也踩到了这个坑:Scene / Mode / Special Mode 解决了结构判断,却没有解决真实对话中的协作体感。于是我继续补出了一层“场景 → 身份(Scene → Identity)”机制,让 AI 在不同场景下切换不同协作姿态,而不是切换成不同人格。这篇文章会分享我的完整思路、具







