AI Agent设计模式全解析:从ReAct到LATS的演进之路,新手也能轻松入门(建议收藏)
AI Agent设计模式全解析:从ReAct到LATS的演进之路,新手也能轻松入门(建议收藏)
新手友好的AI Agent主流设计模式指南📚,带你快速理清智能体的核心架构逻辑。
在深入研究Claude Code的工作机制前,有必要先系统梳理AI Agent的主流设计模式。因为实际分析后会发现,Claude Code的原理相较于经典的ReAct模式,在灵活性上有了新的突破。通过本文,你能清晰解答以下关键问题:
- 当下主流的AI Agent设计模式究竟有哪些?
- 这些看似复杂的设计模式,是如何被研发出来并落地应用的?
- 开发AI智能体时,是否必须依赖现成的框架?
1、ReAct(Reasoning and Acting:推理与行动)
核心概念与工作原理
ReAct架构的核心,是构建“思考-行动-观察”(Thought-Action-Observation)的闭环循环。在这一模式下,大语言模型(LLM)不再是单纯的“内容生成器”,而是承担起智能体“中央控制器”的角色。其运作流程清晰明了:
- 思考(Thought):Agent先对任务进行分析,明确目标、拆解子任务,甚至预判可能出现的异常并制定应对思路;
- 行动(Action):将思考结果转化为具体操作,调用外部工具(如搜索引擎、计算器、各类API接口等);
- 观察(Observation):工具执行完毕后,Agent接收环境反馈的结果,再基于这些新信息调整下一轮的思考和行动策略,如此循环直至任务完成。
与纯链式推理(Chain-of-Thought,CoT)相比,ReAct的本质差异在于将推理过程与真实世界紧密绑定。CoT仅依赖模型内部已有的知识进行逐步思考,一旦遇到需要实时信息、外部数据验证的任务,很容易陷入“幻觉生成”(即输出不符合事实的内容)或错误持续传播的困境(此前已详细分析过LLM产生幻觉的底层原因,可参考文章《泡沫?革命?2025年的今天,再看看这一轮AI发展有可能让我们进入AGI吗?》)。
而ReAct通过“思考-行动-观察”的交错式工具调用,让推理的每一步都能通过现实反馈进行验证,大幅提升了结果的准确性和可信度(本质上是借鉴了强化学习“试错-反馈-优化”的思路)。这种设计,成功将LLM从“开放式内容生成”升级为“闭环任务执行”,是AI Agent发展的重要里程碑。
其实ReAct的设计思路并不复杂,它完全贴合人类解决问题的常规逻辑。以程序员开发代码为例:
- 编写一段程序(对应“思考”环节,明确实现思路);
- 在编译器中运行代码(对应“行动”环节,执行具体操作);
- 查看运行结果(对应“观察”环节,获取环境反馈);
- 根据结果决定下一步:修复代码漏洞、优化性能,或直接提交代码(完成任务循环)。
从本质上看,这是人类解决所有问题的通用“方法论”——实践→认识→再实践→再认识,不断迭代优化。
对于刚接触AI Agent的新手,常会有一个疑问:大模型的API通常是“无状态”的(即无法记忆历史交互信息),ReAct是如何实现持续循环的?其实核心在于“上下文管理”,通过将每一轮的“思考-行动-观察”记录整合到下一次调用的输入中,让模型“记住”之前的过程,具体可参考《工作流(DAG)还是智能体(Agent)?一篇文章完成【深度对比】》的详细解析。
详细优缺点分析
维度 | 具体说明 |
---|---|
优点 | 1. 动态适应性强:能根据实时环境反馈灵活调整行动计划,轻松应对任务中的不确定性和突发问题(后续多数设计模式均以ReAct为基础衍生); 2. 可解释性高:显式的“思考-行动-观察”轨迹,让决策过程清晰可见,便于开发者调试,也能增强用户对Agent的信任。 |
缺点 | 1. 效率较低:每次工具调用都需触发一次LLM推理,导致任务执行速度慢,且Token消耗成本高; 2. 存在“规划近视”:每次仅聚焦于下一步行动规划,可能陷入局部最优解,无法找到全局最优的任务执行路径。 |
典型应用场景
ReAct特别适合需要与外部环境持续交互的任务,例如:
- 知识密集型问答:通过调用搜索引擎API,动态检索最新信息(如实时数据、行业报告),验证并补充模型内部知识,尤其适用于需要反复查阅资料的复杂问题(区别于简单的“联网回答”功能);
- 多步交互类任务:如模拟游戏闯关(需根据游戏场景实时调整策略)、自动化网页浏览(需依次完成登录、检索、信息提取等操作)。
2、Plan & Execute(计划与执行)
核心概念与工作原理
Plan & Execute架构的出现,核心目标是解决ReAct模式“高成本、低效率”的痛点。其设计思路是将Agent的工作流程拆分为两个独立阶段:
- 规划阶段:由性能强大的LLM(如GPT-4)负责,一次性生成详细的、多步骤的“静态计划”,明确每个环节的目标、所需工具及执行顺序;
- 执行阶段:由轻量级模型(如GPT-3.5)或特定功能模块负责,严格按照规划阶段生成的计划,逐一完成每个步骤,无需每次调用大型LLM决策。
与ReAct相比,两者的核心差异在于:ReAct是“动态反应式”,每一步都可能重新规划,灵活性强但效率低;Plan & Execute是“静态预设式”,通过牺牲实时适应性,换取更高的执行效率和更低的运营成本。这种“智慧(规划)与体力(执行)解耦”的设计,让AI Agent的工程化落地更具成本优势和可控性。
注:上述示意图与架构原理的匹配度存在一定偏差,这也是调研中发现的常见问题。由于Plan & Execute并非当前主流核心模式,了解其核心逻辑即可,若需深入研究,可参考LangChain官方发布的技术文档。
详细优缺点分析
维度 | 具体说明 |
---|---|
优点 | 1. 成本与效率优势显著:仅在初始规划和计划失败重启时调用大型LLM,执行阶段依赖轻量模型,大幅减少昂贵算力消耗,提升任务完成速度; 2. 全局规划能力强:强制LLM在任务开始前进行全局思考,有效避免ReAct可能出现的“局部最优”问题。 |
缺点 | 1. 鲁棒性差:计划是静态的,无法动态应对执行中的突发状况(如工具调用失败、数据格式异常),一旦某个步骤出错,需重新启动整个规划流程才能继续; 2. 执行模式单一:多数实现仍采用串行执行逻辑,未能充分利用可并行的任务资源,效率仍有提升空间。 |
典型应用场景
Plan & Execute适用于流程相对固定、步骤繁多且需调用多种工具的复杂任务,例如:
- 自动化报告生成:先规划“数据采集→清洗→分析→可视化→文案撰写”全流程,再按步骤执行,生成行业分析报告、业务复盘报告等;
- 标准化业务处理:如保险理赔(依次完成材料审核、风险评估、赔付计算等固定步骤)、财务报销流程(凭证校验→金额核算→审批流转)。
3、ReWOO(Reasoning Without Observation:无观察推理)
核心概念与工作原理
ReWOO是Plan & Execute架构的高效优化版本,核心创新在于引入“变量占位符”机制。其运作流程分为三步:
- 规划(Planner):由LLM一次性生成完整计划,计划中包含带变量的工具调用指令,例如
#E1 = 工具A[参数1]
,其中#E1
代表该步骤的输出结果; - 执行(Worker):根据计划中的变量逻辑,依次调用工具执行任务,将结果赋值给对应变量;
- 汇总(Solver):收集所有变量的执行结果,整合为最终答案。
ReWOO与传统Plan & Execute的本质区别,在于通过变量实现高效的步骤间数据传递。传统Plan & Execute在步骤间传递信息时,往往需要再次调用LLM解析前一步结果,而ReWOO的变量机制让数据直接“流转”,无需额外的模型调用,大幅提升了流程效率。这种设计,相当于将编译原理中的“变量思想”引入自然语言计划,实现了更高效的数据流编排。
详细优缺点分析
维度 | 具体说明 |
---|---|
优点 | 1. Token效率极高:一次性规划全流程,避免ReAct中反复调用LLM导致的冗余提示词和历史上下文,显著降低Token消耗; 2. 便于模型微调:规划过程不依赖工具实时输出,只需针对固定的变量格式和计划逻辑优化模型,简化了微调流程。 |
缺点 | 1. 执行模式局限:仍采用串行执行逻辑,无法并行处理无依赖关系的任务,浪费算力资源; 2. 容错能力弱:与Plan & Execute类似,若某个步骤执行失败(如变量赋值错误),整个流程会中断,需重新启动规划。 |
典型应用场景
ReWOO特别适合工具间需链式调用、且存在明确数据传递关系的任务,例如:
- 多步骤知识问答:如“查询2024年超级碗冠军球队的主力四分卫赛季数据”,需先调用工具查询冠军球队(结果赋值
#E1
),再用#E1
作为参数调用球员数据查询工具,最终汇总答案; - 文档多维度处理:如长文档摘要任务,规划“提取核心观点(#E1)→ 统计关键数据(#E2)→ 梳理逻辑结构(#E3)”,再通过Solver整合
#E1
、#E2
、#E3
生成最终摘要。
从设计目标来看,ReWOO旨在通过优化工具调用逻辑,实现“提速+降本”,但它舍弃了ReAct的核心优势——“根据现实反馈动态调整策略”,不再具备循环迭代能力,任务执行一旦开始便只能“一条路走到黑”。从这个角度看,其对ReAct的继承更偏向形式,而非核心能力的延续。
4、LLM Compiler(大语言模型编译器)
核心概念与工作原理
LLM Compiler架构的核心目标是进一步突破任务执行速度瓶颈,其创新点在于:让Planner生成的不再是简单的步骤列表,而是任务有向无环图(DAG)。这个DAG会清晰定义所有子任务、所需工具、输入参数,以及任务间的依赖关系(如“任务A完成后,任务B和C才能开始”)。同时,架构中引入独立的“任务调度单元”,根据DAG自动识别可并行执行的任务(即无依赖关系的子任务),实现最大化并发处理,大幅提升执行速度。
需要注意的是,“LLM Compiler”存在概念混淆:一是Meta发布的专注于代码优化的预训练模型;二是本文讨论的“基于LLM生成任务图并并行执行”的Agent架构。此处聚焦后者——融合系统工程与算法优化思想的智能体框架。
与ReWOO相比,LLM Compiler的根本突破在于将任务执行从“串行”升级为“并行”。它不再局限于模仿人类思维过程,而是借鉴计算机科学中成熟的任务调度与并行计算理念,让AI Agent的效率实现质的飞跃。
详细优缺点分析
维度 | 具体说明 |
---|---|
优点 | 1. 执行效率极优:通过并行调用工具,相比传统规划类模式,速度提升显著(相关论文宣称最高可达3.6倍),同时减少总体执行时间,降低成本; 2. 可维护性强:结构化的任务DAG输出,让任务流程、依赖关系一目了然,便于开发者调试和迭代优化。 |
缺点 | 1. 工程实现复杂:需构建成熟的任务调度单元、依赖关系解析模块,对技术团队的工程能力要求高; 2. 鲁棒性仍存短板:与所有预规划类架构一样,单点任务失败可能导致整个流程中断,且动态修复难度大。 |
典型应用场景
LLM Compiler适合需要同时调用多个工具、获取多源信息的任务,例如:
- 电商智能比价:并行调用多个电商平台API,同时获取同一商品的价格、销量、好评率等信息,快速生成比价报告;
- 多源数据整合分析:如市场调研任务,并行调用行业数据库、社交媒体舆情工具、用户调研问卷分析工具,汇总多维度数据生成洞察报告。
5、反思与增强类架构深度剖析
反思与增强类架构的核心价值,在于赋予AI Agent“自我进化”的能力——通过自我评估、试错学习和元认知(思考自身思考过程),实现性能的持续提升,超越了传统“规划-执行”的简单逻辑。
Basic Reflection(基础反思)
核心概念与工作原理
基础反思架构的核心,是在任务执行完成后,强制LLM对自身输出进行“批判性复盘”。这种反思可基于两种信息来源:一是模型自身的内在知识(如逻辑一致性、内容完整性校验);二是外部反馈(如代码编译报错、单元测试结果、用户评价等)。Agent会将反思中发现的问题(如逻辑漏洞、信息缺失、格式错误)作为指导,启动新一轮的输出优化,通过“生成-反思-修正”的迭代循环,提升结果质量。
这种模式的创新点在于,将人类的“系统2思维”(有意识、有条理的深度思考)转化为Agent工作流中的可编程步骤,利用LLM的元认知能力(思考自身思考过程)实现自我纠错,而非被动等待人类反馈。
详细优缺点分析
维度 | 具体说明 |
---|---|
优点 | 1. 优化效果显著:即使是简单的“生成-反思”循环,也能在代码生成(减少语法错误、提升逻辑严谨性)、文本创作(优化结构、增强可读性)等任务中带来明显提升; 2. 提升安全性:通过自我反思,可有效减少输出中的偏见、毒性言论和极端立场,让Agent更符合伦理规范。 |
缺点 | 1. 易陷入“无效循环”:若缺乏有效的外部反馈(如明确的错误信息、量化评价标准),Agent可能在自我反思中反复纠结无关问题,无法找到核心优化方向; 2. 复杂任务适配性差:固定的“生成-反思”循环,难以应对需要多轮深度试错才能解决的复杂任务(如复杂代码调试、多约束条件下的策略规划)。 |
典型应用场景
基础反思最适合需要迭代优化的创作或编程类任务,例如:
- 文案优化:完成营销文案初稿后,基于“吸引力、逻辑流畅度、转化率”等预设标准自我评审,修正冗余内容、强化核心卖点;
- 代码调试入门:针对简单的Python脚本,通过反思编译错误信息(如“变量未定义”“缩进错误”),自动修正代码并重新运行。
基础反思本质上是ReAct的重要分支,核心目标是减少LLM幻觉带来的负面影响。但其“纠错”依赖的是模型自身或有限外部反馈,而非通过工具调用获取真实世界数据验证——这使其更适合无法快速从工具中获取反馈,或工具使用成本极高的场景(如主观判断性强的文本创作、缺乏客观评价标准的创意任务),堪称Agent的“自我挑刺”机制。
Reflexion(强化反思)
核心概念与工作原理
Reflexion框架在基础反思的基础上,增加了“跨任务学习”能力,将**“语言反馈”转化为类似强化学习的“奖励信号”**。其核心流程分为三步:
- 任务执行与评估:Agent完成任务后,由“评估器”(可是LLM或专用模块)判断行动轨迹的成功/失败,并输出评估结果;
- 生成反思文本:“反思器”根据评估结果,生成结构化的反思内容(如“失败原因:未考虑用户需求中的时间约束;改进方向:下次任务先调用时间规划工具”);
- 动态记忆与应用:反思文本被存入“动态记忆库”,在下一次执行同类任务时,作为上下文输入Agent,指导其避免重复过去的错误。
与基础反思相比,Reflexion的关键突破在于**“动态记忆+跨试验学习”**:基础反思仅局限于单次任务内的迭代,而Reflexion通过累积历史经验(成功/失败案例),让Agent在多次任务尝试中持续进化,有效解决了长轨迹任务中的“重复性错误”和“幻觉循环”问题。
注:部分文献中存在“Reflextion”的拼写变体,但原始论文及主流技术社区均采用“Reflexion”作为标准名称。
详细优缺点分析
维度 | 具体说明 |
---|---|
优点 | 1. 无需模型微调:仅通过文本形式的反思与记忆,就能实现性能显著提升,降低了对算力和数据的依赖; 2. 复杂任务表现突出:在需要多次尝试才能成功的任务(如复杂代码生成、多步顺序决策)中,成功率远超基础ReAct模式; 3. 学习过程透明:显式存储的反思文本让Agent的“学习轨迹”可追踪、可解释,便于开发者分析优化。 |
缺点 | 1. 高度依赖评估质量:若“评估器”无法准确判断任务成败或生成有效反思,整个学习过程会失效; 2. 记忆容量有限:受LLM上下文窗口限制,动态记忆库难以存储大量历史经验,对超长期学习构成瓶颈。 |
典型应用场景
Reflexion特别适合需要从失败中积累经验、逐步优化策略的复杂任务,例如:
- 复杂环境探索:在AlfWorld等多步交互仿真环境中,Agent通过记忆过去的失败路径(如“误触陷阱导致任务失败”),避免重复犯错,逐步找到正确的行动序列;
- 高阶代码生成:在HumanEval等编程基准测试中,Agent从编译错误、测试用例失败中学习,不断优化代码逻辑,最终性能可超越无反思的GPT-4基线模型。
LATS(Language Agent Tree Search:语言智能体树搜索)
核心概念与工作原理
LATS被视为当前AI Agent架构的“集大成者”,它创新性地将LLM的推理能力与经典蒙特卡洛树搜索(MCTS)算法结合,构建了“多路径探索+深度决策”的框架。其核心逻辑是:
- 树状路径生成:将任务拆解为多个决策节点,在每个节点上生成多条可能的行动路径(如ReAct序列),形成任务树;
- 价值评估与剪枝:利用LLM作为“价值函数”,结合自我反思和外部反馈,对每条路径的成功概率进行评估,剪枝低效或错误的路径;
- 最优路径选择:通过多轮搜索与评估,筛选出全局最优的行动序列并执行。
在LATS架构中,LLM同时承担三个角色:Agent(执行具体行动)、价值函数(评估路径优劣)、优化器(剪枝与路径调整)。与Self-Discover(聚焦单条最佳思考路径)相比,LATS的核心差异在于**“多路径并行探索”**,通过覆盖更多可能性,避免在单一路径上陷入死胡同,大幅提升复杂任务的鲁棒性。
详细优缺点分析
维度 | 具体说明 |
---|---|
优点 | 1. 复杂决策能力强:在多维度、高不确定性的决策空间中,能通过深度探索找到全局最优解,有效避免“局部最优”和“路径陷阱”; 2. 通用性与性能优越:融合了ReAct的行动能力、Reflexion的反思反馈、树搜索的规划优势,在编程、复杂问答、网页自动化等任务中均表现出色; 3. 鲁棒性极高:多路径探索机制让Agent在部分路径失败时,仍能通过其他路径完成任务,容错能力远超单路径架构。 |
缺点 | 1. 成本极高:探索多条路径需要大量LLM调用,Token消耗和计算成本呈指数级增长,成为商业化落地的最大瓶颈; 2. 现实应用受限:依赖环境支持“状态回溯”(即回到历史决策节点重新选择路径),但在多数真实场景(如实时交易、物理世界交互)中,状态无法回溯,限制了其应用范围。 |
典型应用场景
LATS适合需要深度探索、多维度权衡的复杂决策任务,例如:
- 复杂策略规划:如企业市场扩张策略制定,需同时考虑竞品反应、政策限制、供应链能力等多因素,通过多路径探索找到风险与收益最优的方案;
- 多约束编程任务:如大型软件系统中的模块开发,需满足性能、兼容性、安全性等多重约束,通过多路径尝试找到最优的代码实现方案。
6、总结:AI Agent设计模式的演进逻辑与核心目标
纵观从ReAct到LATS的所有设计模式,其演进始终围绕两个核心矛盾展开:“灵活性与效率的平衡” 和**“幻觉抑制与能力增强的平衡”**,具体可归纳为三条主线:
1. 从“动态适应”到“效率优化”的路径
ReAct作为最基础的架构,通过“思考-行动-观察”的循环实现了极强的动态适应性,但每次仅执行单步任务的特性导致效率低下、成本高昂。为解决这一问题,后续架构沿着“优化工具调用逻辑”的方向演进:
- Plan & Execute通过“规划-执行分离”,减少大型LLM调用次数;
- ReWOO引入“变量机制”,提升步骤间数据传递效率;
- LLM Compiler借助“任务DAG与并行调度”,突破串行执行的速度瓶颈。
这一路径的本质,是在“保留部分灵活性”和“最大化效率”之间寻找平衡点,但代价是鲁棒性有所下降——预规划的静态流程难以应对突发状况。
2. 从“外部反馈”到“自我反思”的突破
所有架构的核心目标之一,都是通过“真实反馈”抑制LLM的幻觉问题。在不同场景下,反馈来源呈现出从“外部”到“内部”的延伸:
- ReAct、Plan & Execute等依赖工具调用获取外部环境反馈(如数据、执行结果);
- 当外部反馈难以获取(如主观创作任务)时,Basic Reflection和Reflexion通过“自我反思”实现内部反馈,让Agent具备自主纠错能力;
- LATS则结合了外部反馈与自我反思,通过多路径评估进一步提升反馈的可靠性。
3. 从“单路径执行”到“多路径探索”的升级
任务复杂度的提升,要求Agent具备“全局最优决策”能力:
- 早期架构(ReAct、Plan & Execute等)均采用“单路径执行”,易陷入局部最优;
- LATS通过融合蒙特卡洛树搜索,实现“多路径并行探索+价值评估”,首次让Agent具备了类似人类“深思熟虑”的能力,标志着AI Agent从“被动执行”向“主动决策”的跨越。
最终结论
在实际开发中,无需盲目追求复杂架构,应根据任务特性选择合适的方案:
- 若任务需频繁与外部环境交互、不确定性高(如实时问答、游戏交互),ReAct 仍是最优选择;
- 若任务流程固定、步骤繁多(如标准化报告生成、业务处理),Plan & Execute或LLM Compiler 更具成本优势;
- 若任务依赖主观判断、缺乏客观反馈(如文案创作、创意设计),Reflexion 能有效提升输出质量;
- 若任务是高价值、高复杂度的决策问题(如战略规划、复杂编程),可尝试LATS,但需权衡其高成本带来的影响。
归根结底,AI Agent设计模式的核心,是让LLM从“单纯的内容生成器”转变为“可靠的任务解决者”——无论是效率优化、反思增强还是多路径探索,最终都服务于这一目标。未来的架构创新,或将聚焦于“高效并行”与“动态适应”的深度融合,以及“低成本多路径探索”技术的突破,让AI Agent真正具备大规模商业化落地的能力。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
为什么要学习大模型?
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。
大模型入门到实战全套学习大礼包
1、大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
2、大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
3、AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
4、大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
5、大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
适用人群
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
更多推荐
所有评论(0)