【超全收藏】从零开始学AI Agent:七大主流开发框架详解与实战
【超全收藏】从零开始学AI Agent:七大主流开发框架详解与实战
本文盘点了七款主流AI Agent开发框架:LangGraph、AutoGen、CrewAI、OpenAI Agents SDK、Google ADK、MetaGPT和PydanticAI。每个框架都有独特设计理念和核心功能,如LangGraph的有状态工作流、AutoGen的多智能体协作、CrewAI的独立高性能、OpenAI Agents SDK的生产优化、Google ADK的模块化设计、MetaGPT的角色分工模拟和PydanticAI的类型安全。这些框架为开发者提供了构建AI Agent的不同路径和选择。
1、LangGraph

LangGraph 是一种底层编排框架,用于构建、管理和部署长时间运行的有状态智能体。
- 官网地址:https://www.langchain.com/langgraph
- 项目地址:https://github.com/langchain-ai/langgraph
LangGraph 是由 LangChain 团队开发的开源框架,专为构建有状态、多步骤的复杂工作流而设计。它弥补了传统 LangChain 在动态流程控制(如循环、分支)上的不足,支持更灵活的 Agent 协作与状态管理:通过有向图(Graph) 组织工作流,将任务拆分为 节点(Nodes) 和 边(Edges),实现非线性的执行逻辑(如循环、条件分支),更贴近真实业务场景。
核心功能
LangGraph 为任何长时间运行的有状态工作流或智能体提供底层支撑性基础设施。LangGraph 不抽象化提示词或架构(不预设提示词模板,将控制权彻底交还开发者),提供以下核心优势:
- 持久化执行(Durable execution):构建能够抵御故障并持续长时间运行的智能体,可从中断点精确自动恢复执行。
- 人在回路(Human-in-the-loop):无缝整合人工监督,支持在执行过程中随时检查并修改智能体状态。
- 全维度记忆管理(Comprehensive memory):创建真正有状态的智能体,兼具短期工作记忆(用于持续推理)和跨会话的长期持久记忆。
- 基于 LangSmith 的调试(Debugging with LangSmith):通过可视化工具深入洞察复杂智能体行为:追踪执行路径、捕获状态迁移、提供详细运行时指标。
- 生产级部署(Production-ready deployment):凭借专为有状态长时工作流设计的可扩展基础设施,自信部署复杂智能体系统
生态协同
LangGraph 可独立使用,也能与任何 LangChain 产品无缝集成,为开发者提供构建智能体的全套工具。为优化 LLM 应用开发,建议将 LangGraph 与以下组件结合使用:
- LangSmith:专为智能体评估与可观测性设计。用于调试低效的 LLM 应用运行、评估智能体轨迹、实现生产环境可视化,并随时间推移提升性能。
- LangGraph Platform:专为长时间运行的有状态工作流打造的部署平台,可轻松部署和扩展智能体。支持跨团队发现、复用、配置和共享智能体,并通过 LangGraph Studio 的可视化原型设计快速迭代。
- LangChain:提供集成化、可组合的组件,以简化 LLM 应用开发流程。
2、AutoGen

AutoGen 是一个用于创建多智能体 AI 应用程序的框架,这些应用程序可以自主行动或与人类协同工作
- 官网地址:https://www.microsoft.com/en-us/research/project/autogen/
- 项目地址:https://github.com/microsoft/autogen
AutoGen 是由微软研究院开发的开源多智能体(Multi-Agent)协作框架,旨在通过大型语言模型(LLM)驱动多个 AI 智能体协同解决复杂任务。
核心特性
- 异步消息传递:智能体间的异步消息通信
- 模块化与可扩展性:可插拔组件,轻松定制系统
- 可观测性与调试:对智能体交互和工作流的跟踪、追踪和调试
- 分布式 :复杂、分布式的智能体网络
- 内置和社区的扩展模块:允许开源开发者管理自己的扩展模块,增强了框架的功能
- 跨语言支持:支持 Python 和 .NET
- 完整类型支持:类型检查,确保代码的健壮性和内聚性
框架设计
AutoGen 采用分层且可扩展的设计:

- Core API(核心 API):实现了消息传递、事件驱动的智能体(agents)以及本地和分布式运行时(runtime),以提供灵活性和强大功能。支持 .NET 和 Python 的跨语言操作。
- AgentChat API(智能体聊天 API):在 Core API 之上构建,实现了一个更简单但带预设范式的 API,用于快速原型设计。此 API 构建于 Core API 之上,支持常见的多智能体模式。
- Extensions API(扩展 API):支持第一方和第三方扩展,持续扩展框架能力。支持 LLM 客户端的具体实现(例如,OpenAI,AzureOpenAI)以及代码执行等能力。
AutoGen 生态系统还支持两个必备的开发者工具:
- AutoGen Studio:提供无代码图形用户界面(GUI) 用于构建多智能体应用。
- AutoGen Bench:提供用于评估智能体性能的基准测试套件。
3、CrewAI

CrewAI 是一个精简、极速的 Python 框架,完全从零开始构建——完全独立于 LangChain 或其他智能体框架。它使开发者能够同时获得高层次的简洁性和精确的低层次控制,是创建适用于任何场景的定制化自主 AI 智能体的理想选择。
- 官网地址:https://www.crewai.com/
- 项目地址:https://github.com/crewAIInc/crewAI
为什么需要 CrewAI

- CrewAI Crews:针对多个智能体的自主性与协作智能进行优化。
- CrewAI Flows:支持细粒度、事件驱动的控制,通过单次LLM调用实现精准任务编排,并原生支持Crews。
CrewAI 释放了多智能体自动化的真正潜力,通过 AI 智能体小组(Crews of AI Agents)或事件流程(Flows of Events),提供了顶尖水平的速度、灵活性和控制组合:
- 独立框架 (Standalone Framework):从零开始构建,独立于 LangChain 或任何其他智能体框架。
- 高性能 (High Performance):优化速度和最小资源使用,实现更快的执行。
- 灵活的低阶自定义 (Flexible Low Level Customization):完全自由地在高阶和低阶进行自定义——从整体工作流和系统架构,到细粒度的智能体行为、内部提示和执行逻辑。
- 适用于每种用例 (Ideal for Every Use Case):在简单任务和高度复杂的现实企业级场景中均被证明有效。
- 强大的社区 (Robust Community):由超过 100,000 名认证开发者组成的快速增长社区提供全面支持和资源。
CrewAI 使开发者和企业能够自信地构建智能自动化,弥合简洁性、灵活性和性能之间的差距
4、OpenAI Agents SDK
- 官网地址:https://openai.github.io/openai-agents-python/
- 项目地址:https://github.com/openai/openai-agents-python
OpenAI Agents SDK 是 Swarm 的生产优化版本,继承 Swarm 的核心设计理念(如多智能体协作、任务移交机制),同时新增关键生产级特性。
OpenAI Agents SDK 包含一组极简的核心原语:
- 智能体(Agents),是配备指令和工具的大语言模型(LLM)
- 交接(Handoffs):允许智能体将特定任务委托给其他智能体
- 护栏(Guardrails):用于验证智能体的输入
- 会话(Sessions):自动维护跨智能体运行的对话历史
为什么需要 OpenAI Agents SDK
该 SDK 遵循两大设计原则:
- 功能丰富且概念精简:提供足够多的功能以体现使用价值,同时保持极简的核心原语,确保快速上手。
- 开箱即用且灵活定制:默认配置即可高效运行,同时支持精确自定义执行逻辑。
SDK 的主要特性包括:
- 智能体循环(Agent loop):内置的智能体循环机制,自动处理工具调用、将结果返回给大语言模型(LLM)并持续循环,直至 LLM 完成任务。
- Python 优先(Python-first):直接利用 Python 内置语言特性编排和串联智能体,无需学习新的抽象概念。
- 交接机制(Handoffs):支持在多个智能体间协调与委派任务的核心功能。
- 安全护栏(Guardrails):与智能体并行运行输入验证及检查,若检查失败则提前中断流程。
- 会话管理(Sessions):自动维护跨智能体运行的对话历史,无需手动处理状态。
- 函数工具(Function tools):将任意 Python 函数转化为工具,支持自动生成模式及 Pydantic 驱动的验证功能。
- 追踪功能(Tracing):内置追踪系统,支持可视化、调试与监控工作流,并可结合 OpenAI 的评估、微调及模型蒸馏工具套件
5、Google Agent Development Kit (ADK)

- 官网地址:https://google.github.io/adk-docs/
- 项目地址:https://github.com/google/adk-python
- 使用示例:https://github.com/google/adk-samples
Agent Development Kit (ADK) 是一个灵活、模块化的框架,用于开发和部署 AI 智能体。虽然针对 Gemini 和谷歌生态系统进行了优化,但 ADK 具备模型无关性(model-agnostic)和部署无关性(deployment-agnostic),并构建了与其他框架的兼容性。ADK 旨在使智能体开发更接近软件开发体验,帮助开发者更轻松地创建、部署和编排智能体架构——从简单任务到复杂工作流均可覆盖。
🌟 核心特性
- 健全工具生态(Rich Tool Ecosystem):使用预构建工具、自定义函数、OpenAPI规范或集成现有工具,赋予智能体多样化能力,实现与谷歌生态系统的深度整合。
- 代码驱动开发(Code-First Development):直接在Python中定义智能体逻辑、工具和编排机制,提供终极灵活性、可测试性和版本控制能力。
- 模块化多智能体系统(Modular Multi-Agent Systems):通过将多个专业化智能体组合成灵活层级结构,设计可扩展的应用系统。
- 随处部署(Deploy Anywhere):轻松将智能体容器化部署至Cloud Run,或通过Vertex AI智能体引擎实现无缝扩展。
ADK 还支持了与 Agent2Agent (A2A) 协议的集成,代码示例可阅读:https://github.com/a2aproject/a2a-samples/tree/main/samples/python/agents
6、MetaGPT

- 官网地址:https://docs.deepwisdom.ai/main/en/
- 项目地址:https://github.com/FoundationAgents/MetaGPT
为多个GPT分配不同角色,组成协作式软件实体以处理复杂任务。
MetaGPT 旨在通过模拟真实软件公司的角色分工与标准化流程(SOP),实现复杂任务的自动化处理。
将多智能体系统视作一个软件公司
- MetaGPT 接收单行需求作为输入,输出用户故事 / 竞品分析 / 需求文档 / 数据结构 / API / 文档等成果。
- MetaGPT 内部包含产品经理、架构师、项目经理、工程师等角色,提供软件公司的全流程及精心编排的标准化操作程序(SOP)。
- Code = SOP(Team) 是核心哲学理念:将 SOP 具象化,并将其应用于由大语言模型(LLM)构成的团队协作中。
关于 MetaGPT 的核心概念,可以阅读文档:https://docs.deepwisdom.ai/main/en/guide/tutorials/concepts.html
- 智能体(Agent)的定义:Agent = 大语言模型(LLM) + 观察(Observation) + 思考(Thought) + 行动(Action) + 记忆(Memory)
- 多智能体系统(MultiAgent)的定义:MultiAgent = 智能体 + 环境 + 标准操作流程(SOP) + 通信 + 经济模型

7、PydanticAI

- 官网地址:https://ai.pydantic.dev/
- 项目地址:https://github.com/pydantic/pydantic-ai
PydanticAI 是一个 Python 智能体框架,旨在降低使用生成式人工智能(Generative AI)构建生产级应用程序的难度。
PydanticAI 是由 Pydantic 核心团队开发的 Python Agent 框架,旨在简化基于生成式 AI(如大语言模型 LLMs)的生产级应用开发。其设计灵感源自 FastAPI 的创新性与易用性,目标是提供类似 FastAPI 的开发体验,将 Pydantic 的强类型验证与现代化工具链深度结合,解决现有 LLM 开发框架的痛点。
为什么需要 PydanticAI
- 由 Pydantic 团队构建:由 Pydantic 背后的团队开发(该验证层已用于 OpenAI SDK、Anthropic SDK、LangChain、LlamaIndex、AutoGPT、Transformers、CrewAI、Instructor 等众多框架)。
- 模型无关性:支持 OpenAI、Anthropic、Gemini、Deepseek、Ollama、Groq、Cohere 和 Mistral,并提供简单接口以支持其他模型实现。
- Pydantic Logfire 集成:无缝集成 Pydantic Logfire,实现实时调试、性能监控及 LLM 应用行为追踪。
- 类型安全:旨在提供强大且信息丰富的类型检查。
- Python 风格设计:利用 Python 熟悉的控制流和智能体组合构建 AI 驱动项目,便于应用标准 Python 最佳实践(与非 AI 项目一致)。
- 结构化响应:利用 Pydantic 能力验证并结构化模型输出,确保响应结果跨运行的一致性。
- 依赖注入系统:提供可选的依赖注入系统,为智能体的系统提示、工具及输出验证器提供数据与服务,适用于测试和评估驱动的迭代开发。
- 流式响应:支持持续流式传输 LLM 响应,并即时验证,确保实时获取已验证输出
以上是几款智能体开发框架的介绍。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】


为什么要学习大模型?
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。


大模型入门到实战全套学习大礼包
1、大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

2、大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

3、AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

4、大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

5、大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

适用人群

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多推荐



所有评论(0)