AI Agent开发模式全解析:从小白到高级程序员的必学指南(建议收藏)
本文全面综述了AI Agent的分类方式、开发模式及其产品形态。详细介绍了基于自主程度、迭代方式等不同维度的Agent分类,深入剖析了反思、工具、ReAct、Planning和Multi-Agent模式的特点与应用场景。最后探讨了AI Agent在生产落地中的关键挑战,如私域知识注入、可信规划实现等问题,并提出相应解决思路,为AI Agent开发与应用提供系统技术指导。
简介
本文全面综述了AI Agent的分类方式、开发模式及其产品形态。详细介绍了基于自主程度、迭代方式等不同维度的Agent分类,深入剖析了反思、工具、ReAct、Planning和Multi-Agent模式的特点与应用场景。最后探讨了AI Agent在生产落地中的关键挑战,如私域知识注入、可信规划实现等问题,并提出相应解决思路,为AI Agent开发与应用提供系统技术指导。
一、AI Agent 的分类
01.基于自主程度的分类
在这里插入图片描述
根据 Agent “是否具备循环迭代特性” 来区分自主程度:
- 低自主程度:Agent 不具备循环迭代的能力,就像是一个 Router(路由器),一次只对一个任务(一个数据包)执行负责(路由决策分类)。后续需要人类自己根据输出调整下一次输入。典型如上文中提到的 Function Call Agent。
- 高自主程度:Agent 具备循环迭代的能力,能够基于目标导向,进行自主规划、自主决策、自主执行、自主反馈调整。人类只需要输出目标和查看结果。典型如上文中提到的 ReAct Agent。
ReAct Agent 和 Function Call Agent 的关键区别在于前者具有自主的 Observe(观察)反馈和自主优化的能力,这是循环迭代的基本要求。一般而言,LLM 对系统行为的决策控制权越高,其 “Agent 特征” 就越强。
02.基于自主程度和能力要求的分类
在 “是否具备循环迭代特性” 的基础上加入了 “能力要求” 维度。而关键能力又分为:
- 推理规划能力
- 知识领域能力
- 工具执行能力
- 反馈迭代能力
03.基于迭代方式的区分
高自主程度 Agent 的迭代方式主要有 2 大类型:
- 反应式迭代:ReAct 更像一个 “边想边做” 的敏捷执行者。它在一个循环中交替进行推理(Reason)和行动(Act),根据实时反馈动态调整后续步骤。
- 思考(Think):我现在需要完成任务 X。首先应该做动作 A。
- 行动(Act):执行动作 A,例如调用一个 API 或搜索网络。
- 观察(Observe):获取动作 A 的结果。
- 循环:基于对 A 的观察,再次进行思考:“基于我刚刚看到的结果,我接下来应该做 B。” 如此循环,直到任务完成或无法继续。
- 规划式迭代:Planning 更像一个 “先谋后动” 的战略家。它首先花费资源制定一个完整的计划(一系列动作),然后按计划执行,通常在执行中不会改变计划。
- 规划阶段(Plan):我的目标是完成任务 X。为了完成X,我需要先完成子目标 A,然后 B,然后 C。生成一个明确的步骤列表。
- 执行阶段(Execute):严格按顺序执行规划好的步骤。
- (可选的)重新规划:如果在执行中发现某个步骤失败或前提条件不满足,可能会触发重新规划。
值得注意的是,在实际生产中,ReAct 和 Planning 并不互斥,而是紧密结合。这通常被称为 Planner-Actor 或 Planning-ReAct 模式。
04.基于智能体数量的区分
如上文所述,可分为 Single-Agent 和 Multi-Agent。这里不再赘述。
一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

05.基于开发模式的区分
模式 | 核心思想 | 典型场景 | 关键技术 |
---|---|---|---|
反思模式 | 自我反思,迭代优化之后再输出。 | 内容创作、学术推理 | 生成型 LLM + 反思模块 |
工具模式 | 整合外部工具,扩展自身能力边界 | 实时数据查询、API 调用 | 工具集模块 + 执行模块 + MCP 协议 |
ReAct 模式 | 强调敏捷和环境适应的反应式动态迭代循环 | 机器人控制、客服工单处理 | 推理型 LLM + 工具集模块 + 执行模块 + 结果记忆模块 + 反思模块 |
Planning 模式 | 强调任务分解和规划的预设式动态迭代循环 | 项目管理、多步骤问题解决 | 规划器 + ReAct 模式 |
Multi-Agent 模式 | 多角色协作与信息共享 | 跨领域开发、复杂项目统筹 | 分角色 Agent + 共享记忆模块 + A2A 协议 |
反思模式
在这里插入图片描述
应用场景:反思模式常被应用于 “内容生成领域”,如创意写作(反复润色文案)、复杂问题解答(学术论文推导)。对生成型 LLM 的生成质量加以把控,避免输出合规性风险。关键技术:Agent 具有对 LLM Output 进行 “后处理” 的反思模块。核心流程:
- Agent 接收 User Request(问题或任务请求)。
- Agent 将 “User Request Prompt + 针对场景的优化 Prompt + 合规性要求 Prompt” 发送到 LLM(Generate)。
- Agent 从 LLM(Generate)获得 Initial Output。这一步类似于 “第一反应” 或 “直觉性思考”。
- Agent 反思模块对 Initial Output 进行校验审查(后处理),如果不通过则继续向 LLM(Reflect)进行反思性提问,指出其中的不足、错误或可改进之处。
- Agent 从 LLM(Reflect)获得反思结果。这一步类似于 “元认知” 或 “批判性思考””。
- 迭代(Iterate)多轮修正和完善答案,直到通过反思模块的审查校验。
- 最终向 User 返回 Response。应用案例:生成一篇营销文案,然后先让 LLM 生成初稿,再让 “反思” 卖点是否突出?逻辑是否连贯?内容是否合法?反复调整直至符合要求。核心优势:模拟人类的 “自我反思”(self-reflection)和 “元认知”(metacognition),充分发挥 LLM 的智能。不仅仅是机械地生成答案,而是让 AI 像人类一样,能够对自己的思考和输出进行二次审视和批判。可有效提升逻辑性和准确性。
反思模式的本质是丹尼尔·卡尼曼提出的 “双系统理论”。系统 1(快速、直觉):对应 LLM 的初步生成;系统 2(慢速、理性):对应 LLM 的反思与批判。这种模式让 AI 既有创造力(系统 1),又有自我纠错和深度思考能力(系统 2)。
反思模式也映射了科学研究中的 “假设—实验—批判—修正” 循环。初步输出是 “假设”,反思是 “批判”,多轮迭代是 “修正”,最终输出是 “理论” 或 “结论”。
工具模式
在这里插入图片描述
应用场景:工具模式主要用于 Agent 场景,扩展 LLM 的能力边界,调用外部工具 / API 扩展功能,解决自身无法直接完成的任务(如实时数据查询、代码执行),使其具备影响外部系统的能力。关键技术:工具集模块、执行模块、LLM 的 Function Call API、MCP 协议等。核心流程:
- Agent 接收到 User Request,然后把 “User Request Prompt + Function Call Prompt” 发送到 LLM。
- LLM 理解 User Request 首先判断自身知识和能力是否足以直接回答,还是需要借助外部工具。如果需要外出工具,则从 Function Call Prompt 中选择合适的 Tools Set 返回给 Agent。
- Agent 根据 Tools Set 依次执行 Tool Calling 完成具体的操作。例如:向量数据库(如知识库检索)、API(如计算、翻译、联网查询等)等。
- Agent 将 Tool Calling 的执行结果输入到 LLM,LLM 将工具返回的结果与自身知识整合,生成最终响应。
- Agent 将 Response 返回给用户。
应用案例:需要实时信息或专业计算的场景,用户询问 “今日北京到上海航班最低价”,Agent 调用机票预订 API 获取实时价格,对比后给出最优方案。如金融分析(获取最新股价)、数据分析(调用 Python 脚本处理表格)等。
核心优势:使得 Agent 具有解决复杂问题的能力,满足更多应用场景的需求。
ReAct 模式
在这里插入图片描述
应用场景:ReAct 模式常用于需要 “想一步做一步” 的多步骤、反应式、及时动态调整的场景。如机器人控制(避障路径规划)、客服工单处理(按流程查询订单状态)。关键技术:推理型 LLM 支撑 “可视化的长对话” 推理,工具集模块和执行模块执行动作,结果记忆模块和反思模块支持多轮迭代优化。核心流程:
- Agent 接收 User Request 之后将 “User Request Prompt 和思维链推理 Prompt” 发送改到 LLM(Reason)。
- LLM(Reason)根据思维链模式进行推理,首先对问题进行推理,分析当前状态,决定下一步行动(如调用某个工具、查询信息、执行操作等)。
- Agent 执行完 Tool Calling 影响环境,环境返回 Result(如 API 返回值、外部世界反馈等),并存储在记忆模块。
- Agent 反思模块将 Result 发送到 LLM(Reason)进行新一轮推理,决定是否继续行动或生成最终答案。如果要继续行动则会优化 Prompt,直到通过反思模块审查校验。
- Agent 将 LLM(Generate)最终的 Response 返回给用户。应用案例:工厂机器人接到搬运零件指令,先推理路径是否有障碍物→调用传感器检测→调整路线→执行搬运,全程动态优化。
核心优势:实时响应环境变化,具有非常强的即时性,有效避免僵化策略偏差。
Planning 模式
在这里插入图片描述
应用场景:Planning 常用于多阶段、多步骤、且流程较为固定的长周期任务,将复杂任务拆解为可执行的子任务链,如项目管理(敏捷开发流程)。其中每个阶段或步骤又可以使用 ReAct 模式。关键技术:规划器 + ReAct 模式核心流程:
- Agent 接收 User Request,首先 Planner(规划器)访问 LLM 根据用户意图制定 TODO list,将复杂任务分解为一系列可执行的子任务(Generated tasks)。
- Agent 使用 ReAct 模式逐一或并行完成每个子任务,获取中间结果。
- Agent 将子任务的 Result 返回 Planner 并判断子任务的结果是否符合预期。如果符合则进入下一步,如果不符合则根据情况或重试、或继续分解、调整任务,进入新一轮执行。
- Agent Planner 直到所有子任务都完成(Finished),再交由 LLM 则整合所有结果,生成最终 Response 返回用户。
应用案例:指定一个旅行规划,规划器首先规划处步骤:查天气、订酒店、订机票、定行程等。核心优势:结构化处理任务,避免遗漏关键环节,提升执行效率。
在这里插入图片描述
Multi-Agent 模式
在这里插入图片描述
应用场景:跨领域复杂任务,如软件开发(多团队协作)、医疗会诊(内科 + 影像 + 药剂科联动)。关键技术:多个 Agent 分工协作,类似公司组织架构,每个角色负责特定领域,通过记忆模块共享信息,通过 A2A 协议达成协作。核心流程:以软件开发场景为例。
- PM agent(项目经理智能体):接收到 User Request,理解用户需求,Planner 将任务分解为子任务,并统筹子任务分配给不同的 Agents,并把控进度。
- Tech lead agent(技术负责人智能体):负责技术方案设计、技术难题攻关、技术决策等。
- DevOps agent(运维智能体):负责系统部署、运维、监控、自动化等相关任务。
- SDE agent(开发工程师智能体):负责具体的开发、编码、测试等工作。
- 多智能体协作:各智能体之间可根据任务需要进行委派(Delegation)、协作、信息共享和反馈。
- PM agent 整合结果:各个 Agents 完成各自的任务并将结果返回个 PM Agent,最终生成 Response 返回给用户。应用案例:电商大促活动中,PM Agent 协调运营 Agent(制定促销策略)、技术 Agent(优化服务器)、客服 Agent(培训话术),共同保障活动顺利进行。核心优势:专业化分工提升效率,解决单一 Agent 能力局限问题。
核心逻辑: 架构:
- PM Agent(项目经理):统筹任务分配,如将「开发新功能」拆解为需求分析、代码编写、测试等。
- 技术负责人 Agent:制定技术方案,分配给开发 Agent。
- DevOps Agent:负责部署和运维。
二、AI Agent 的产品形态与功能模块
通用功能模块
通过上文的分析,我们知道一个 AI Agent 软件架构需要具备以下通用模块,此外根据产品具体的产品形态不同,还会具有各自的特性和模块。
- LLM 选择器、连接器:根据不同场景选择侧重不同的 LLM 模型进行推理。
- 规划器和迭代规划器:支持 Planning 生成 TODO list,支持 Reflect 迭代优化 TODO list。
- Action:Func Calling、Tool Calling 执行器和工具集。
- 上下文处理器:上下文优化、上下文压缩。
- 记忆模块:短期记忆、长期记忆、记忆压缩。
- 执行环境:沙箱、虚拟机等。
在这里插入图片描述
通用智能体
通用智能体 = 高自主程度 + 高能力要求 + ReAct 模式 + Multi-Agent 典型的产品是 Manus,他的成功在于积累了大量生产环境工程实践,而不拘泥于学术上的定义和分类。
- 区分定义:核心是以目标为导向的 ReAct 反应式迭代。Agent 能完成任意任务,会敏捷的根据环境反馈不断调整规划和行动,四步法(观察、推理、行动、总结)。
- 特殊模块:综合工程实践。
- 应用场合:问题复杂且执行路径不固定,需要大量信息代替人类提示词
DeepResearch 智能体
DeepResearch 智能体 = 低自主程度 + 高能力要求 + Planning 模式 + Single-Agent 典型产品有 Perplexity,通过搜索作为 Reference 扩展知识边界,在知识发现(深度研究)场景中弥补了 LLM 的幻觉问题。
- 区分定义:强调信息的研究主题整理,包括:收集、分类、归纳、逻辑化。但不强调新思路、新方案、新观点。主要解决快速整理旧数据、旧信息的问题。
- 特殊模块:Reference 搜索器。
自进化智能体
自进化智能体 = 高自主程度 + 高能力要求 + Planning-ReAct 模式 + Single-Agent 典型产品有 Google AlphaEvolve,侧重自迭代循环,探索人类未知领域的边界。
-
区分定义:是一个能够帮助人类突破知识边界的智能体,能够对特性问题提出新思路新方案,不断迭代进化。
-
特殊模块
-
Agent 并发:并发解决同一个问题得到不同的答案,保证思路的多样性。
-
评估器:在多个 Agent 并发出评估更正确的方向,继续进入下一轮并发。
Workflow 智能体
Workflow 智能体 = 底自主模式 + 高能力要求 + 工具模式
Workflow 是一些列预定义的、结构化的步骤和规则,用于完成一个特定的业务流程。它强调的是顺序、可靠性和可重复性。因此,Workflow 智能体是现如今 toB 智能体落地较好的一种产品形态,更易于结合企业现有的 SOP 工作流程。典型产品有 Dify、LangGraph 框架等,通过不同的图结构来编排 LLM 决策过程,从而实现更复杂、更可靠的执行路径。
-
区分定义:开发者人为的对任务进行拆解,智能体需要提供任务/流程的灵活编排能力。需要学习图知识等概念,对开发者的能力要求较高,才能开发出好用的智能体。
-
特殊模块:
-
全局状态持久化:在多个流程节点中进行信息共享,例如状态机、变量等。
-
逻辑控制组件:if-else、do-while 循环等逻辑控制。
-
流程控制组件:顺序执行、并行执行、循环执行。
-
应用场景:流程复杂但固定的流程。
从逻辑的角度对比,Workflow 是企业信息化转型的提效逻辑,而 ReAct 是以目标为导向的问题解决逻辑。
AI Agent 在生产落地中面临的关键挑战和解决思路
上述可知,ReAct 智能体更接近 AI Agent 最初的定义,目标是 “完全自主人工智能”。区别于 Workflow 智能体,后者以其可靠性在 toB 领域有更多的落地案例,但存在用 “人力智能” 补充 “人工智能” 的客观情况。
造成这种现状的根本原因是 LLM 和 AI Agent 都尚处于高速发展的早期阶段,必然存在诸多问题和挑战。这些问题中,一部分是从 LLM 大语言模型继承而来的,而另外一部分则是软件工程方面的挑战。例如:缺乏统一的标准架构、通信协议与可验证机制,难以进行跨平台集成与通用化开发等。
这里回到 AI Agent 的 “规划、行动、记忆、可信输出、优化循环” 五大方面,并围绕这五大方面来归纳出 AI Agent 亟需解决的关键挑战。
- 私域知识怎么注入?私域知识相关的逻辑思维链怎么注入?
问题:
- LLM 默认只具有公域知识,但不理解企业内部定义的私域知识,导致 LLM 难以理解企业内部场景。
- 即便注入了私域知识到 LLM 之后,还需要进一步的让 LLM 理解这些私域知识之间的逻辑关系才能做出合理的推理过程。
解决思路:注重 LLM 交互的 “前期处理”。
-
RAG(检索增强生成):结合 “实时动态数据检索” 和 “私域静态数据库”,RAG 能够有效缓解实时数据、私域知识、大模型幻觉等问题。
-
COT Prompt(思维链):在注入私域知识的同时还需要连带注入对应的 COT Prompt,抽象描述这些知识或对象之间的逻辑关系。
-
微调 LLM:随着 LLM 后训练技术发展,微调 LLM 已经不是一个需要投入大量资源才能完成的工作,Agent 后半程的竞争力主要在 LLM 的微调能力上。
-
如何实现 ReAct 的可信规划?推理可解析性怎么保证?Multi-Agent 错误传播问题?
问题:
- LLM 难解的幻觉问题,导致难以保证 Agent 可信输出和优化循环的质量,例如:在循环规划时,同一个问题可能出现完全不同的 2 个规划。
- LLM 推理过程通常是黑盒的,即便推理过程可见但也非常冗长,即可解析性差,这都会导致用户质疑推理的结果,使得结果输出不可信。
- 尤其 Multi-Agent 场景中,具有复杂的协同路径,也会涉及多次 LLM 交互。存在叠加错误和错误传播的问题,例如一件事情可能有 20 多个步骤,会放大错误的概率。
解决思路:注重 LLM 交互的 “后期处理” 和 “多轮迭代”。
- 程序化的提示词工程:提示词工程的程序化实现可以对 LLM 的输出进行结构化设计和约束,可以为不同的 Multi-Agent 类型(如规划者、检索者、总结者)根据其功能使用结构化的提示词模版。程序化的提示词模版可以减少手动调整提示词的不稳定性。
- 反思与自我批判:引入 “结果验证模块 + 异常重试机制 + 置信度评估模块”,强化多轮迭代测试与评估体系。Agent 在完成任务时可以使用二次推理过程来审查自己的输出,从而提高鲁棒性和减少错误率。这项能力也可以扩展到 Multi-Agent 之间的相互评估。例如,一个验证 Agent 可以审计总结其他 Agent 的工作,确保协作质量控制。
- 监控、审计与可解释性:通过记录提示词输入、工具调用、结果输出、推理过程、系统日志等跟踪审计机制,继而构建 Agent 的可解析性能力。设计完善的事实核查与答案校验流程,用于对 AI Agents 进行事后分析、性能调整、故障跟踪、优化行为。对于识别哪个 Agent 导致了错误以及在什么条件下发生错误是十分关键的。
- 设置人工检查点:基于可解析性,在关键环节设置人工检查点二次确认,引入人机协同机制,对低可信度答案增加人工审核功能。
- 分层记忆架构:除了短期记忆、长期记忆,还允许每个 Mult-Agent 可以维护私有记忆(本地内存)和公共记忆(共享内存),从而实现 Agent 的个性化决策和协作性决策。每个 Agent 的观察结果需要与其他 Agent 的输出进行协调。要实现这一点,共享内存和一致的日志记录是关键。
- 事实或标准相似性对账:Agent 在生成摘要之前和标准数据进行相似性对账。例如:在企业知识库和智能客服场景中,RAG 可以确保结果输出基于外部事实。在 Multi-Agent 系统中,RAG 作为共享的 “事实基础”,能确保 Agent 之间的一致性,并减少因上下文不一致导致的错误传播。
- 基于角色的 Multi-Agent 编排:一方面,帮助元智能体更好的完成任务编排和分发,继而再角色智能体中进行分隔推理。另一方面,为 AI Agents 引入基于角色的访问控制、沙箱和身份解析,以确保 Agent 在其范围内行动,并且其决策可以被审计或撤销。
- 建立企业数据治理机制:企业内部数据往往散落在不同系统,格式不一,质量参差不齐,难以获取和整合高质量数据来驱动 AI Agent。搭建企业级数据治理战略,打破数据孤岛。例如:初期建立简单的数据集成、数据清洗数据平台,后期可逐步扩大至统一的数据中台或数据湖仓。
- END -
关于 “AI赛博空间” 微信公众号:
欢迎关注 “AI赛博空间” 微信公众号,我们专注于AI、大数据、云计算及网络技术的发展及应用。热爱开源,拥抱开源!
技术即沟通
确保 Agent 在其范围内行动,并且其决策可以被审计或撤销。
8. 建立企业数据治理机制:企业内部数据往往散落在不同系统,格式不一,质量参差不齐,难以获取和整合高质量数据来驱动 AI Agent。搭建企业级数据治理战略,打破数据孤岛。例如:初期建立简单的数据集成、数据清洗数据平台,后期可逐步扩大至统一的数据中台或数据湖仓。
三、如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
01.大模型风口已至:月薪30K+的AI岗正在批量诞生
2025年大模型应用呈现爆发式增长,根据工信部最新数据:
国内大模型相关岗位缺口达47万
初级工程师平均薪资28K(数据来源:BOSS直聘报告)
70%企业存在"能用模型不会调优"的痛点
真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!
02.大模型 AI 学习和面试资料
1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工
📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
更多推荐
所有评论(0)