AI Agent 深度学习笔记:概念辨析与设计模式详解
AI Agent与Agentic AI辨析及主流设计模式解析 本文深入探讨了AI Agent与Agentic AI的核心概念区别,系统梳理了AI Agent的五大发展阶段。重点解析了四种主流设计模式:ReAct模式通过推理-行动循环实现动态决策;CoT模式采用分步思维链增强推理能力;ToT模式构建树状思维结构支持多路径探索;Plan-and-Execute模式将战略规划与执行分离。每种模式都具有独
引言
随着人工智能技术的快速发展,AI Agent(智能代理)已经成为当前AI领域最热门的研究方向之一。然而,许多人对AI Agent与Agentic AI这两个概念存在混淆,同时对AI Agent的各种设计模式也缺乏系统性的理解。本文将基于最新的技术文献,深入解析这些核心概念,并详细介绍主流的AI Agent设计模式。
第一部分:AI Agent 与 Agentic AI 的深度辨析
1.1 概念的起源与发展
在人工智能的发展历程中,"Agent"这个概念最早来源于哲学和认知科学领域,指的是能够自主行动的实体。当这个概念被引入到计算机科学中时,就产生了"AI Agent"的概念。
AI Agent(智能代理)是指一个能够感知环境、进行推理决策、并在环境中执行行动以实现特定目标的智能系统。它具有以下核心特征:
- 自主性(Autonomy):能够在没有人类直接干预的情况下独立运行和做出决策
- 反应性(Reactivity):能够感知环境的变化并及时做出响应
- 主动性(Proactivity):不仅能被动响应,还能主动采取行动来实现目标
- 社交能力(Social Ability):能够与其他Agent或人类进行交互和协作
而Agentic AI(代理式人工智能)则是一个更加宏观的概念,它描述的是一种AI系统的设计哲学和架构方法。Agentic AI强调的是将AI系统设计成具有代理特性的智能体,这种设计理念可以应用于各种不同的AI应用场景中。
1.2 两者的本质区别
理解AI Agent和Agentic AI的区别,关键在于把握它们的抽象层次:
AI Agent是具体的实现:当我们谈论一个聊天机器人、一个游戏中的NPC角色、或者一个自动交易系统时,我们指的是具体的AI Agent实例。每个Agent都有明确的功能边界、特定的知识域和固定的行为模式。
Agentic AI是设计理念:它更像是一种架构思想,指导我们如何构建具有代理特性的AI系统。一个Agentic AI系统可能包含多个AI Agent,也可能是一个复杂的多层次智能架构。
举个具体的例子:如果我们要构建一个智能客服系统,从Agentic AI的角度来看,我们会考虑如何让整个系统具备自主理解用户需求、主动提供解决方案、与后端系统协作等代理特性。而在具体实现时,我们可能会创建多个专门的AI Agent:一个负责自然语言理解,一个负责知识检索,一个负责对话管理,它们协同工作来实现整个系统的智能化。
1.3 发展演进的历史脉络
AI Agent的发展经历了几个重要阶段:
第一阶段:基于规则的专家系统(1970s-1980s)
这个阶段的"智能代理"主要是基于预定义规则的专家系统。它们能够在特定领域内模拟人类专家的决策过程,但缺乏真正的自主性和学习能力。例如,早期的医疗诊断系统MYCIN,虽然能够进行复杂的推理,但本质上还是在执行预编程的规则。
第二阶段:反应式Agent(1980s-1990s)
随着人工智能研究的深入,研究者们开始关注Agent的反应性和实时性。这个阶段的Agent能够快速响应环境变化,但通常缺乏长期规划能力。典型的例子是早期的机器人控制系统,它们能够避开障碍物、跟踪目标,但难以处理复杂的任务序列。
第三阶段:认知Agent(1990s-2000s)
这个阶段引入了更复杂的认知架构,如BDI(Belief-Desire-Intention)模型。Agent不仅能够反应,还能够进行规划和推理。它们维护对世界的信念(Belief),设定自己的目标(Desire),并形成具体的行动意图(Intention)。
第四阶段:学习型Agent(2000s-2010s)
机器学习技术的发展为Agent带来了学习能力。这个阶段的Agent能够从经验中学习,不断改进自己的性能。强化学习成为这个阶段的核心技术,让Agent能够在与环境的交互中逐步优化自己的行为策略。
第五阶段:大模型驱动的Agent(2020s至今)
随着大语言模型(LLM)的突破,AI Agent进入了一个全新的发展阶段。现代的AI Agent能够理解自然语言指令,进行复杂的推理,甚至具备一定的创造性。它们不再局限于特定的任务域,而是展现出了更强的通用性和适应性。
第二部分:AI Agent 主流设计模式深度解析
2.1 ReAct模式:推理与行动的有机结合
ReAct(Reasoning and Acting)模式是当前最受关注的AI Agent设计模式之一。这个模式的核心思想是将推理(Reasoning)和行动(Acting)紧密结合,让Agent在执行任务的过程中能够进行持续的思考和调整。
ReAct模式的工作原理:
在传统的AI系统中,推理和行动往往是分离的:系统先进行完整的推理,然后执行行动。但ReAct模式打破了这种分离,创建了一个推理-行动-观察的循环:
- 思考(Think):Agent首先分析当前的情况,思考下一步应该做什么
- 行动(Act):基于思考的结果,Agent执行具体的行动
- 观察(Observe):Agent观察行动的结果,获取新的信息
- 反思(Reflect):基于观察到的结果,Agent反思之前的推理是否正确,并调整后续的策略
这种模式的优势在于它更接近人类的思维方式。当我们解决复杂问题时,往往不是一次性制定完整的计划,而是边思考边行动,根据中间结果不断调整策略。
实际应用示例:
假设我们要让AI Agent帮助用户规划一次旅行。使用ReAct模式的Agent会这样工作:
- 思考:“用户想要规划旅行,我需要了解他们的预算、时间和偏好”
- 行动:询问用户的具体需求
- 观察:用户回答说想要一个一周的欧洲之旅,预算5000美元
- 思考:“5000美元的预算对于欧洲一周游来说比较紧张,我需要找一些经济实惠的选项”
- 行动:搜索经济型的欧洲旅游路线
- 观察:找到了几个符合预算的选项
- 思考:“这些选项都不错,但我需要根据用户的具体兴趣来筛选”
- 行动:询问用户对历史文化、自然风光、美食等方面的偏好
通过这种持续的推理-行动循环,Agent能够逐步细化和优化旅行计划。
2.2 CoT模式:思维链的力量
CoT(Chain of Thought)模式是另一个重要的设计模式,它强调的是让AI Agent展现出清晰的思维链条。这个模式的核心在于将复杂的推理过程分解为一系列连贯的思维步骤。
CoT模式的设计理念:
人类在解决复杂问题时,往往会进行分步骤的思考。比如解决一个数学问题,我们会先理解题意,然后分析已知条件,接着选择合适的解题方法,最后逐步计算得出答案。CoT模式就是要让AI Agent模拟这种分步思考的过程。
CoT模式的实现方式:
- 问题分解:将复杂问题分解为若干个子问题
- 逐步推理:对每个子问题进行详细的分析和推理
- 中间结果记录:记录每一步的推理结果,为后续步骤提供依据
- 逻辑链构建:确保各个推理步骤之间具有清晰的逻辑关系
- 最终综合:基于所有中间结果得出最终答案
CoT模式的优势:
- 可解释性强:每一步推理都是透明的,用户可以清楚地看到Agent的思考过程
- 错误定位容易:当出现错误时,可以快速定位到具体的推理步骤
- 推理质量高:分步思考有助于避免逻辑跳跃和推理错误
- 适应性好:可以根据问题的复杂程度调整思维链的长度和深度
实际应用案例:
考虑一个法律咨询的AI Agent,当用户询问关于合同纠纷的问题时,CoT模式的Agent会这样思考:
- 理解问题:“用户遇到了合同纠纷,需要法律建议”
- 信息收集:“我需要了解合同的具体条款、纠纷的性质、双方的履约情况”
- 法律分析:“根据合同法的相关条款,这种情况属于违约行为”
- 责任判定:“需要分析是否存在免责条款,违约方应承担什么责任”
- 解决方案:“可以通过协商、调解或诉讼等方式解决”
- 风险评估:“分析各种解决方案的成本和风险”
- 建议提供:“基于以上分析,给出具体的行动建议”
2.3 ToT模式:思维树的探索
ToT(Tree of Thoughts)模式是CoT模式的进一步发展,它不再局限于线性的思维链,而是构建了一个树状的思维结构。这种模式允许Agent在推理过程中探索多个可能的思路,并在必要时回溯到之前的节点尝试其他路径。
ToT模式的核心概念:
在ToT模式中,每个思维状态都可以看作是树上的一个节点,从每个节点出发,Agent可以生成多个可能的后续思维状态(子节点)。这样就形成了一个思维树,Agent可以在这个树上进行搜索,寻找最优的推理路径。
ToT模式的工作流程:
- 根节点设定:将初始问题设定为思维树的根节点
- 分支生成:从当前节点生成多个可能的思维分支
- 分支评估:评估每个分支的质量和潜力
- 路径选择:选择最有希望的分支继续探索
- 深度搜索:在选定的分支上继续生成子节点
- 回溯机制:当某个分支遇到死胡同时,回溯到上一个节点尝试其他分支
- 最优路径:找到从根节点到解决方案的最优路径
ToT模式的独特优势:
- 全局优化:不会因为局部的次优选择而错过全局最优解
- 容错能力强:即使某个推理分支出现错误,也可以通过回溯机制纠正
- 创造性强:能够探索多种不同的解决思路,有助于发现创新性的解决方案
- 适用复杂问题:特别适合那些需要多步推理且存在多种可能路径的复杂问题
实际应用场景:
ToT模式特别适用于创造性问题解决,比如产品设计。假设我们要设计一个新的智能手机:
根节点:设计一款创新的智能手机
第一层分支:
- 分支A:专注于摄影功能的创新
- 分支B:专注于电池续航的突破
- 分支C:专注于显示技术的革新
从分支A继续展开:
- 分支A1:多镜头系统的优化
- 分支A2:AI摄影算法的改进
- 分支A3:新型传感器技术的应用
评估与选择:
Agent会评估每个分支的可行性、市场潜力、技术难度等因素,选择最有前景的路径继续深入探索。如果某个分支遇到技术瓶颈,Agent可以回溯到上一层,尝试其他的设计方向。
2.4 Plan-and-Execute模式:战略规划与执行分离
Plan-and-Execute模式是一种将规划和执行分离的设计模式,它强调先制定详细的计划,然后按照计划逐步执行。这种模式特别适用于需要长期规划和系统性执行的复杂任务。
Plan-and-Execute模式的核心理念:
这种模式基于一个重要的认知科学发现:人类在处理复杂任务时,往往会先进行高层次的规划,然后在执行过程中根据具体情况调整细节。Plan-and-Execute模式将这一过程形式化,分为两个主要阶段:
- 规划阶段(Planning Phase):分析任务需求,制定详细的执行计划
- 执行阶段(Execution Phase):按照计划逐步执行,并根据实际情况进行调整
规划阶段的工作流程:
- 任务分析:深入理解任务的目标、约束条件和成功标准
- 资源评估:评估可用的资源,包括时间、人力、技术等
- 策略制定:基于任务分析和资源评估,制定总体策略
- 任务分解:将复杂任务分解为一系列可执行的子任务
- 依赖关系分析:分析子任务之间的依赖关系和执行顺序
- 风险评估:识别潜在的风险点并制定应对策略
- 计划优化:优化执行计划,确保效率和可行性
执行阶段的工作流程:
- 任务调度:根据计划安排任务的执行顺序
- 资源分配:为每个任务分配必要的资源
- 进度监控:实时监控任务执行进度
- 质量控制:确保每个子任务的执行质量
- 异常处理:当遇到意外情况时,及时调整执行策略
- 反馈收集:收集执行过程中的反馈信息
- 计划调整:根据实际情况调整后续的执行计划
Plan-and-Execute模式的优势:
- 系统性强:通过详细规划确保任务执行的系统性和完整性
- 效率高:预先规划可以避免执行过程中的重复和浪费
- 可控性好:分阶段执行便于监控和控制
- 适应性强:可以根据执行情况调整计划
实际应用案例:软件开发项目管理
假设我们要开发一个电商平台,使用Plan-and-Execute模式的Agent会这样工作:
规划阶段:
- 需求分析:分析用户需求、功能需求、性能需求
- 技术选型:选择合适的技术栈和开发框架
- 架构设计:设计系统架构和数据库结构
- 任务分解:将开发任务分解为用户管理、商品管理、订单处理等模块
- 时间规划:制定详细的开发时间表
- 团队分工:根据团队成员的技能分配任务
执行阶段:
- 环境搭建:搭建开发环境和测试环境
- 模块开发:按照计划逐个开发各个功能模块
- 集成测试:将各个模块集成并进行测试
- 性能优化:根据测试结果进行性能优化
- 部署上线:将系统部署到生产环境
- 运维监控:监控系统运行状态并及时处理问题
2.5 Self-Refine模式:自我完善的迭代优化
Self-Refine模式是一种强调自我改进和迭代优化的设计模式。这种模式让Agent能够对自己的输出进行评估和改进,通过多轮迭代不断提升结果的质量。
Self-Refine模式的核心思想:
人类在创作或解决问题时,很少一次就能达到完美的结果。我们通常会先产生一个初步的方案,然后反复审视、修改和完善,直到满意为止。Self-Refine模式就是要让AI Agent具备这种自我完善的能力。
Self-Refine模式的工作循环:
- 初始生成:根据输入生成初始的解决方案或输出
- 自我评估:对生成的结果进行客观评估,识别不足之处
- 改进策略:基于评估结果制定具体的改进策略
- 内容修订:根据改进策略对原始输出进行修订
- 质量检验:检验修订后的结果是否有所改进
- 迭代决策:决定是否需要进一步迭代还是可以输出最终结果
自我评估的关键维度:
- 准确性:信息是否准确,逻辑是否正确
- 完整性:是否涵盖了所有重要的方面
- 清晰性:表达是否清晰,结构是否合理
- 相关性:内容是否与问题高度相关
- 创新性:是否提供了新的见解或解决方案
- 实用性:是否具有实际的应用价值
改进策略的类型:
- 内容补充:添加遗漏的重要信息
- 逻辑优化:改进推理逻辑和论证结构
- 表达改善:提高语言表达的清晰度和准确性
- 结构调整:重新组织内容结构使其更加合理
- 细节完善:补充必要的细节和具体例子
- 观点平衡:考虑不同的观点和角度
实际应用案例:学术论文写作助手
假设我们要开发一个学术论文写作助手,使用Self-Refine模式的Agent会这样工作:
第一轮:初始生成
- 根据用户提供的研究主题和要求,生成论文的初稿
第一轮:自我评估
- 检查论文结构是否完整(引言、文献综述、方法、结果、讨论、结论)
- 评估论证逻辑是否清晰
- 检查引用是否规范
- 评估语言表达是否学术化
第一轮:改进策略
- 补充文献综述部分的相关研究
- 改进方法部分的描述,使其更加详细
- 优化结论部分的表达,使其更加有力
第一轮:内容修订
- 根据改进策略对论文进行修订
第二轮:自我评估
- 重新评估修订后的论文质量
- 检查是否还有需要改进的地方
迭代继续…
- 如果质量仍有提升空间,继续下一轮迭代
- 如果质量已经达到满意水平,输出最终版本
2.6 Reflection模式:深度反思与元认知
Reflection模式是一种强调深度反思和元认知的设计模式。这种模式不仅关注问题的解决,更关注解决问题的过程本身,通过反思来提升Agent的认知能力和问题解决能力。
Reflection模式的理论基础:
元认知是指对认知过程的认知,即"思考如何思考"的能力。在人类学习和问题解决过程中,元认知起着至关重要的作用。具备强元认知能力的人能够:
- 监控自己的思维过程
- 评估自己的理解程度
- 调整自己的学习策略
- 从失败中吸取经验教训
Reflection模式就是要让AI Agent具备类似的元认知能力。
Reflection模式的核心组件:
- 过程监控器:实时监控Agent的思维和决策过程
- 经验记录器:记录Agent的行动、结果和相关上下文
- 模式识别器:识别成功和失败的模式
- 策略调整器:基于反思结果调整未来的策略
- 知识更新器:将反思得到的洞察整合到知识库中
Reflection模式的工作流程:
- 行动执行:Agent执行具体的任务或决策
- 结果观察:观察行动的结果和环境反馈
- 过程回顾:回顾整个决策和执行过程
- 成败分析:分析成功和失败的原因
- 模式提取:从经验中提取可重用的模式和规律
- 策略优化:基于反思结果优化未来的行动策略
- 知识整合:将新的洞察整合到现有知识体系中
深度反思的关键问题:
- What(什么):发生了什么?结果如何?
- Why(为什么):为什么会出现这样的结果?
- How(如何):过程是如何进行的?哪些步骤是关键的?
- What if(如果):如果采用不同的方法会怎样?
- So what(那又如何):这个经验对未来有什么启示?
实际应用案例:智能投资顾问
假设我们开发一个智能投资顾问,使用Reflection模式的Agent会这样工作:
投资决策执行:
- 基于市场分析和客户需求,制定投资组合策略
- 执行具体的买卖操作
结果观察:
- 监控投资组合的表现
- 收集市场反馈和客户反馈
过程回顾:
- 回顾决策过程:为什么选择这些股票?为什么设定这个比例?
- 分析决策依据:哪些信息是关键的?哪些假设是正确的?
成败分析:
- 成功案例分析:哪些决策带来了正收益?成功的关键因素是什么?
- 失败案例分析:哪些决策导致了损失?失败的原因是什么?
模式提取:
- 识别成功的投资模式:什么类型的股票在什么市场条件下表现良好?
- 识别风险模式:什么情况下容易出现重大损失?
策略优化:
- 调整选股标准:基于历史表现优化选股算法
- 优化风险控制:改进止损和仓位管理策略
- 改进时机把握:优化买卖时机的判断
知识整合:
- 更新市场认知:将新的市场洞察整合到知识库
- 完善客户画像:基于客户反馈优化客户需求模型
- 改进预测模型:基于实际结果校准预测算法
2.7 多Agent协作模式:群体智能的体现
随着AI应用场景的复杂化,单一Agent往往难以胜任所有任务。多Agent协作模式应运而生,它通过多个专门化的Agent协同工作来解决复杂问题。
多Agent协作的基本原理:
多Agent系统的核心思想是"分工合作"。就像人类社会中的团队协作一样,每个Agent都有自己的专长和职责,通过相互配合来完成整体任务。这种模式的优势在于:
- 专业化分工:每个Agent可以专注于自己擅长的领域,提高整体效率
- 并行处理:多个Agent可以同时工作,大大提高处理速度
- 容错性强:即使某个Agent出现故障,其他Agent仍可以继续工作
- 可扩展性好:可以根据需要增加或减少Agent的数量
协作模式的分类:
合作型协作:所有Agent朝着共同的目标努力,彼此之间没有利益冲突。比如在一个智能制造系统中,负责质量检测的Agent和负责生产调度的Agent都是为了提高整体的生产效率。
竞争型协作:Agent之间存在一定的竞争关系,但这种竞争最终有利于整体目标的实现。比如在一个智能交易系统中,不同的交易策略Agent可能会竞争有限的资源,但这种竞争有助于找到最优的交易策略。
混合型协作:在不同的情况下,Agent之间可能表现出合作或竞争的关系。比如在一个智能城市管理系统中,交通管理Agent和环境监测Agent通常是合作关系,但在资源分配时可能存在一定的竞争。
协作机制的设计要点:
- 通信协议:定义Agent之间如何交换信息,包括消息格式、通信频率等
- 协调策略:制定Agent之间的协调规则,避免冲突和重复工作
- 任务分配:根据每个Agent的能力和当前负载情况分配任务
- 冲突解决:当Agent之间出现冲突时,需要有明确的解决机制
- 性能监控:监控整个系统的性能,及时发现和解决问题
实际应用案例:智能客服系统
一个完整的智能客服系统通常包含多个专门化的Agent:
- 接待Agent:负责初始的用户接待和问题分类
- 知识检索Agent:负责从知识库中搜索相关信息
- 对话管理Agent:负责管理整个对话流程
- 情感分析Agent:负责分析用户的情感状态
- 质量监控Agent:负责监控服务质量并提供改进建议
这些Agent通过精心设计的协作机制共同工作:
- 用户提出问题后,接待Agent首先进行问题分类
- 根据问题类型,接待Agent将请求转发给相应的专业Agent
- 知识检索Agent搜索相关信息,并将结果传递给对话管理Agent
- 对话管理Agent结合检索结果和对话上下文生成回复
- 情感分析Agent持续监控用户情绪,必要时提醒其他Agent调整策略
- 质量监控Agent记录整个服务过程,为后续优化提供数据支持
2.8 分层架构模式:复杂性的有序管理
分层架构模式是软件工程中的经典设计模式,在AI Agent设计中同样发挥着重要作用。这种模式将Agent的功能按照抽象层次分为不同的层次,每一层负责特定类型的任务。
分层架构的设计理念:
分层架构的核心思想是"分而治之"。通过将复杂的系统分解为多个相对简单的层次,我们可以更好地管理系统的复杂性。每一层都有明确的职责边界,上层依赖下层提供的服务,但不需要了解下层的具体实现细节。
典型的三层架构:
反应层(Reactive Layer):
这是最底层的架构层,负责处理紧急情况和实时响应。反应层的特点是响应速度快,但推理能力有限。它主要处理那些需要立即响应的事件,比如安全警报、系统故障等。
反应层通常采用简单的条件-动作规则:
- 如果检测到危险,立即启动安全程序
- 如果系统负载过高,立即启动负载均衡
- 如果用户输入无效,立即返回错误提示
规划层(Planning Layer):
规划层位于中间层,负责制定中期计划和策略。它有更多的时间进行推理和分析,可以处理更复杂的问题。规划层会考虑多个因素,权衡不同选择的利弊,制定出相对优化的行动方案。
规划层的典型任务包括:
- 资源分配和调度
- 路径规划和优化
- 策略制定和调整
- 风险评估和管理
深思层(Deliberative Layer):
深思层是最高层的架构层,负责长期目标和复杂推理。它有充足的时间进行深入的分析和思考,可以处理那些需要大量知识和复杂推理的问题。
深思层的主要职责包括:
- 长期战略规划
- 复杂问题求解
- 知识学习和更新
- 系统优化和改进
层间交互机制:
分层架构中,不同层次之间需要有效的交互机制:
- 自下而上的信息传递:下层将感知到的信息和处理结果传递给上层
- 自上而下的指令传递:上层将决策和指令传递给下层执行
- 层间协调:当不同层次的决策出现冲突时,需要有协调机制
- 优先级管理:紧急情况下,下层可以直接行动,不需要等待上层指令
实际应用:自动驾驶系统
自动驾驶系统是分层架构模式的典型应用:
反应层:
- 紧急制动:检测到前方障碍物时立即制动
- 车道保持:实时调整方向盘保持在车道内
- 速度控制:根据前车距离实时调整速度
规划层:
- 路径规划:根据目的地和交通状况规划最优路径
- 变道决策:分析周围车辆情况决定是否变道
- 交通灯处理:根据交通灯状态和时间规划通过策略
深思层:
- 学习驾驶习惯:分析用户的驾驶偏好并适应
- 路况预测:基于历史数据预测未来的交通状况
- 系统优化:持续优化算法参数提高驾驶性能
第三部分:设计模式的选择与组合策略
3.1 选择合适设计模式的考虑因素
选择合适的AI Agent设计模式并不是一个简单的决策过程,需要综合考虑多个因素:
任务复杂度:
- 简单任务(如基础问答):可以使用简单的反应式模式
- 中等复杂度任务(如客户服务):适合使用CoT或ReAct模式
- 高复杂度任务(如战略规划):需要使用ToT或分层架构模式
实时性要求:
- 高实时性要求:优先选择反应式模式或分层架构的反应层
- 中等实时性要求:可以使用ReAct模式
- 低实时性要求:可以使用ToT模式进行深度思考
资源约束:
- 计算资源有限:选择简单高效的模式
- 存储资源有限:避免需要大量状态存储的模式
- 网络带宽有限:减少Agent间的通信频率
可解释性需求:
- 高可解释性要求:选择CoT或ToT模式
- 中等可解释性要求:使用ReAct模式
- 低可解释性要求:可以使用黑盒式的学习模式
3.2 模式组合的最佳实践
在实际应用中,很少有系统只使用单一的设计模式。更常见的情况是将多种模式有机结合,发挥各自的优势:
分层+反应式组合:
在分层架构的底层使用反应式模式,确保系统能够快速响应紧急情况,同时在上层使用更复杂的推理模式处理复杂任务。
多Agent+专门化模式组合:
在多Agent系统中,不同的Agent可以使用不同的设计模式。比如,负责实时监控的Agent使用反应式模式,负责策略制定的Agent使用ToT模式。
动态模式切换:
根据当前的情况动态选择合适的模式。比如,在正常情况下使用CoT模式进行详细推理,在紧急情况下切换到反应式模式快速响应。
参考文章:
https://mp.weixin.qq.com/s/7CZ6cHWQ-T9bmaWoJFwdwA
https://zhuanlan.zhihu.com/p/1908131472205930839
更多推荐


所有评论(0)