
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
loop函数是代理的"心脏",核心逻辑是无限循环的工作-闲置交替:先让代理调用大模型处理任务(工作阶段),任务停了就进入闲置阶段;闲置时检查有没有新任务/消息,有就继续工作,没有就超时关机。_idle_poll是代理"主动找活干"的逻辑:闲置时每5秒检查一次,先看有没有人发消息,再看任务板有没有没人做的任务;只要找到一个,就认领并恢复工作;60秒都没找到,就关机。函数是代理的"任务扫描器",核心是
第八季的这次升级是从“脚本执行器”到“智能并发代理”的质变。通过引入,代码实现了一个经典的生产者 - 消费者模型生产者:后台线程(执行命令,生产结果)。消费者:主代理循环(消费结果,决定下一步行动)。缓冲区:通知队列。这种架构使得 Agent 能够像人类开发者一样:启动一个编译任务,然后在编译完成前先去写文档或检查日志,极大地提升了自动化效率。
多Agent的上下文管理核心是「分层隔离+用完销毁+只传摘要父Agent做任务拆分和结果汇总,上下文只保留核心信息,保证轻量化;子Agent处理单一子任务,使用独立的全新上下文,避免父上下文被冗余数据污染;子Agent执行完后销毁自身所有中间上下文,只返回摘要给父Agent,从根本上解决单Agent上下文膨胀、信息冗余的问题。
第五季的核心是「技能分层+按需加载第一层(系统提示):低成本常驻,让模型知道「有什么技能」;第二层(load_skill工具):高成本按需加载,让模型获取「技能的完整规则」;对比第四季:第四季解决「上下文膨胀」(横向隔离),第五季解决「系统提示冗余」(纵向按需),两者结合能支撑更复杂的Agent系统。面试时重点说清「两层注入」的逻辑:为什么要分层(代币浪费)、怎么分层(摘要+完整内容)、怎么落地(
第六季的核心是「上下文全生命周期管理微压缩:「日常瘦身」,处理旧的长工具结果,低成本且无感知;自动压缩:「应急兜底」,代币超限时彻底瘦身,保全核心信息;手动压缩:「主动优化」,模型按需触发,适配复杂场景;磁盘转录:「安全网」,所有历史不丢失,可追溯/可恢复。对比第五季:第五季是「少拿」(按需加载技能),第六季是「少存」(压缩上下文),两者结合实现了代币和上下文的双重高效管理。
S07的核心是「从扁平内存清单到持久化依赖任务图用磁盘JSON文件实现任务持久化,跨会话/Agent不丢;用定义依赖关系,支持串行/并行任务规划;完成任务时自动解阻塞,让Agent能自主判断「哪些任务可以开始做」;新增任务操作工具,让模型能自主创建/更新/查看任务,成为复杂任务的「指挥中枢」。面试时重点说清「依赖图(DAG)」「持久化」「自动解阻塞」这三个关键词,以及它们如何解决S06之前的「无依
第五季的核心是「技能分层+按需加载第一层(系统提示):低成本常驻,让模型知道「有什么技能」;第二层(load_skill工具):高成本按需加载,让模型获取「技能的完整规则」;对比第四季:第四季解决「上下文膨胀」(横向隔离),第五季解决「系统提示冗余」(纵向按需),两者结合能支撑更复杂的Agent系统。面试时重点说清「两层注入」的逻辑:为什么要分层(代币浪费)、怎么分层(摘要+完整内容)、怎么落地(
结构化跟踪:用将模糊的「多步骤任务」转化为模型可识别的结构化清单,替代不可靠的上下文记忆;强制约束:通过工具调用+格式校验,确保模型必须更新进度,避免「口头规划、实际失控」;提醒兜底:用计数器+强制提醒,解决模型「忘记更新清单」的问题,始终锚定整体任务目标。简单来说,这套方案相当于给模型配了一个「任务看板」,并在它走神时拍醒它,确保长流程任务的每一步都可控、可追溯。
这是 Agent 能“动手”的关键。我们不是让模型直接运行命令,而是定义一个工具规范 (Schema)。# 定义工具列表。这是一个 JSON Schema 描述。# 模型看到后,就知道它有一个叫 "bash" 的工具可用,并且知道调用它需要传入 "command" 参数。TOOLS = [{},}]当模型决定调用工具时,本地 Python 代码负责真正执行。# 安全过滤:防止模型生成毁灭性命令tr
sentence-transformers 是基于双塔 BERT 结构的句向量生成库,通过池化与对比学习生成适用于相似度检索的稠密向量。sentence-transformers(简称 SBERT) 是面向句子/文本向量表征的专用库,基于 BERT/RoBERTa 等预训练模型做双塔结构微调,专门用于生成可直接做相似度计算的句向量。我给你把 sentence-transformers 也用 RAG







