简介

谷歌推出的Agent2Agent (A2A)协议是一个开放标准,旨在打破不同AI代理系统间的壁垒,实现跨框架和供应商的无缝协作。该协议通过定义基于HTTP的JSON消息规范,使独立AI代理能够安全地交换任务和结果。尽管A2A获得了50多家企业支持,但目前仍被低估,主要因为多代理协作的价值尚未被广泛认知,以及开发者对"又一个标准"的疲劳感。A2A与Anthropic的MCP协议互补,专注于代理间通信而非工具接口,有望成为AI代理生态系统的"通用语言",为复杂的多代理工作流奠定基础。


“企业级AI应用面临的最大挑战之一,是让构建在不同框架和供应商之上的代理系统实现协同工作。”

——Google,关于代理互操作性的重要性

还记得我们希望代理式AI能够流畅完成的经典示例吗?"帮我预订下周末去纽约的行程。偏好直飞航班,周五下午出发,周日晚上返回。并找一家靠近优质爵士酒吧的酒店。"这个案例的问题在于,AI代理在理解完整意图、跨多步骤规划以及跨工具可靠执行方面仍存在困难——所有这些都需要持续的人工干预。每个步骤(解析任务、寻找选项、权衡决策、完成预订)单独来看尚可运作,但如何将这些环节无缝且安全地串联起来?这仍然脆弱且容易出错。

当前大多数代理系统都在各自为政,每个系统都锁定在特定的生态系统或供应商中。这导致我们面临一个碎片化的格局:代理之间无法直接通信,限制了它们在复杂跨系统工作流中的实用性。2025年4月,谷歌推出了Agent2Agent(A2A)作为打破这些孤岛的开放协议,获得了超过50家重量级合作伙伴的支持(从Atlassian和Salesforce到LangChain)。A2A旨在成为让独立AI代理跨应用无缝协作的"通用语言"。

然而,即便有如此高调的发布和50家知名合作伙伴,数周后A2A仍然被低估。它并未引发与其出身相匹配的狂热追捧。

当前趋势显示增长放缓——对于可能成为关键基础设施的技术,为何反响如此平淡?

本文将深入剖析A2A——其技术本质、存在价值、运作机制、业界观点——并探讨其采用滞后的原因(以及为何这种情况可能即将改变)。我们将解析A2A的技术基础,将其与Anthropic的MCP等协议进行对比,并阐释构建多代理系统所面临的现实挑战。在此过程中,我们还将探讨谷歌推动代理式AI互操作性的深层影响——甚至可能为可搜索的互联网级AI代理目录奠定基础。一如既往,这既是一份优秀的入门指南,也对已尝试过A2A并希望深入了解的从业者具有参考价值。

本期内容

  • A2A为何尚未掀起波澜

  • A2A究竟是什么及其运作机制

  • A2A的核心组件

  • 如何实际开始使用A2A?

  • A2A之前的时代:孤立代理的碎片化世界

  • A2A是AI协作的万能解决方案吗?+ 挑战分析

  • MCP与A2A会成为竞争对手吗?

  • A2A在代理式编排中的定位及其在AI技术栈中的位置(为何我们需要另一个协议?!)

  • A2A解锁的全新可能性

  • 结论思考——谷歌是否可能将A2A转化为公共的、谷歌搜索式的代理索引?

  • 深度研究资源


一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

在这里插入图片描述
A2A为何尚未掀起波澜

谷歌的A2A发布具备了所有正确要素:跨代理协作的宏大愿景、重量级合作伙伴、开源代码,甚至与Anthropic的模型上下文协议(MCP)形成互补关系。理论上时机完美——AI世界正热议"代理"框架——但大多数第一代"AI代理"技术栈都是单兵作战,配备工具箱或API插件的单一大型语言模型。最近,我们见证了MCP的巨大成功,它标准化了AI代理访问工具和上下文的方式,充当某种"AI的USB-C接口"。A2A在此基础上更进一步:标准化多个自主代理之间的通信,使它们能够在无需编写额外定制化对接代码的情况下,交换任务和结果。

那么,为什么A2A并没有一夜之间迅速流行起来呢?部分原因在于舆论与关注度的动态。当Anthropic在2024年底发布MCP时,最初的反响也相当冷淡;直到数月之后,它才逐渐被视为改变格局的关键进展。A2A或许也正在经历类似的延迟认可。从表面上看,A2A的价值显得略为抽象 —— 企业级代理互操作性并不像“最新的前沿模型”或“一款能写代码的聊天机器人”那样直观、引人注目。许多开发者尚未真正体会到多代理协作的痛点,因为他们仍主要停留在单代理应用的探索阶段。在小规模项目中,开发者往往可以通过一个脚本内编排多个API调用,或者在内部使用LangChain之类的框架,而无需依赖正式的通信协议。然而,A2A方案的真正紧迫性,只有在更大规模、更复杂的环境中才会显现 —— 尤其是在大型企业的应用场景中。不过,这一故事尚处在逐步传播的过程中,还未完全被更广泛的社区所认知。

另一个原因是所谓的“又一个标准”疲劳感。在过去的一年里,用于扩展大语言模型(LLMs)的方法层出不穷:OpenAI的函数调用机制、各种插件系统、自定义的RPC方案,更不用说不同厂商特定的代理API。面对如此纷繁的生态,开发者自然会产生疑问:我们真的还需要再来一个新的协议吗?目前,A2A仍然过于新颖,尚缺乏公开的成功案例 —— 还没有一个能够病毒式传播的“杀手级演示”,用震撼的方式展示“代理与代理之间的对话”。在缺少这种“引爆点”的情况下,A2A仍处于相对低调的阶段:对阅读过其规范的人而言颇具吸引力,但还未成为日常AI开发者交流中的热词。

A2A究竟是什么及其运作机制

从本质上讲,Agent2Agent(A2A)是一种通信协议,使得独立的AI代理能够以结构化且安全的方式相互对话。具体而言,它定义了一套基于HTTP的JSON消息的通用规范,允许一个代理请求另一个代理执行任务并返回结果 —— 在必要时,还支持往返式对话。A2A是一种开放标准(在 Apache 许可下开源),任何代理框架或厂商都可以实现,从而实现互操作性。这一机制类似于网页浏览器与服务器共享HTTP/HTML标准的方式。

A2A的核心组件解析

在A2A(Agent-to-Agent,代理到代理通信)的核心,是代理卡片(Agent Card)——一个公开清单,通常托管在/.well-known/agent.json路径下,用于描述代理的能力、端点URL以及身份验证要求。可以将其类比为OpenAPI风格的配置文件:客户端代理只需获取另一个代理的卡片,即可立即了解其功能,例如“该代理能够处理CRM工单并生成报告”,然后再决定是否向其发送任务。

A2A 定义了两个灵活的角色:客户端(请求代理)和服务器(执行代理)。任何符合A2A规范的代理都可以在这两种角色之间自由切换,从而支持多种拓扑结构,例如点对点网格(peer-to-peer mesh)或中心辐射型(hub-and-spoke)模型。

在协作过程中,最核心的单位是任务(Task)。当客户端请求远程代理执行工作时,会通过tasks/send请求创建一个任务。每个任务都有唯一的ID,并在生命周期中经历不同状态:提交、执行中、需要输入、完成或失败。两个代理会共同跟踪任务进展,从而支持更复杂的多步骤交互,例如澄清问题或分步交付。

消息(Message)及其部分(Parts)构成了对话的基本结构。消息可能是用户请求、状态更新或后续操作,而每条消息都由多个部分组成,这些部分可以是纯文本、结构化JSON数据,或是图像、PDF等二进制文件。这种设计支持多模态通信:例如,代理可以发送一份表单(结构化数据)而不仅仅是文本,从而让交互更加灵活与动态。

当任务完成后,输出结果会被封装为制品(Artifact),其本身也是由部分构建的。制品是持久的、结构化的结果,例如PDF报告、JSON数据集或图像文件。其他代理可以直接在新的任务中复用这些制品,而无需额外解析。

A2A 还支持流式传输与通知机制。对于长时间运行的任务,服务器代理可以通过服务器发送事件(Server-Sent Events, SSE)持续推送实时更新,让客户端代理订阅任务进度。代理甚至可以直接将更新推送至客户端的Webhook,从而支持简洁的异步集成架构。

在底层实现上,A2A完全基于现有的Web标准:使用携带JSON-RPC 2.0负载的HTTP请求、通过SSE实现流式传输,并采用OAuth 2.0、双向TLS或签名JWT等典型的REST API身份验证方法。协议没有采用复杂的传输层或自定义二进制编码,而是坚持务实的选择,从而降低企业采用门槛。

一个典型的A2A交互过程可能如下:代理Alpha(客户端)需要生成一张销售图表。它首先获取代理Beta(服务器)的代理卡片,并发现其具备create_chart能力。随后,Alpha发送任务请求:“生成第一季度按地区划分的销售柱状图。” Beta确认任务后,在执行过程中持续流式传输进度更新。如果Beta需要进一步的细节(例如,明确哪些地区),它会发送一条input-required消息,Alpha再进行回复。当图表生成完成后,Beta返回最终制品(即图像文件),Alpha可以直接使用该制品,或将其交付给另一个代理。

正因为Bet 的能力能够被公开发现,并且通过统一的JSON协议进行调用,整个交互避免了常见的脆弱API对接与繁琐的自定义对接代码。这正是A2A的核心承诺:让代理之间的协作像调用一个REST端点一样顺畅无缝。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

如何实际开始使用A2A?

所需环境:

  • Visual Studio Code(VS Code)等代码编辑器

  • Terminal(Linux)、iTerm(Mac)或VS Code内置终端等命令行工具

操作步骤:

  1. 克隆仓库

git clone https://github.com/google/A2A && cd A2A

包含规范、Python SDK和可运行演示代理。

  1. 启动两个示例代理

cd samples/python/agents/hello\_world

python server.py --port 5001      # "远程"代理

cd ../cli

python main.py --task "say\_hi"    # "客户端"代理

你将看到任务生命周期消息通过HTTP 完全按照规范流动。

  1. 为你的代理赋予身份

在您的服务器目录新建名为/.well-known/a2a.json的文件(代理卡片)。是一份单页简历:名称、描述、认证方法,以及最重要的——宣传可处理任务的capabilities数组。

  1. 封装你自己的逻辑

如果你已经在LangChain、CrewAI或纯Python中有代理,实现适配并公开它:


pip install python-a2a

from python\_a2a.langchain import to\_a2a\_server

a2a\_server = to\_a2a\_server(my\_langchain\_agent)

a2a\_server.run(port=5000)

此后的一切——安全性、注册表、可观测性——都只是常规的微服务规范,只是现在你的"微服务"使用任务和制品而非REST动词进行通信。

A2A之前:孤立代理的碎片化世界

在A2A出现之前,大多数AI工作流都是围绕单一的“超级代理”来编排一整套工具——这也是MCP崛起的原因——因此真正的代理间交接非常少见。多代理协作的尝试通常是临时拼凑的:依赖脆弱的自然语言聊天,或者使用被供应商锁定的框架,这些框架无法在不写大量对接代码的情况下同时整合Microsoft、Google和开源代理。由于缺乏发现同类代理、传递任务或引用制品的通用方法,每一次交互都必须定制化——而这种碎片化很快就成为了扩展的噩梦。(学术协议如KQML和FIPA-ACL在90年代曾尝试解决这个问题,但它们从未真正跨入当今的LLM世界。)

A2A是AI协作的万能解决方案吗?+ 挑战分析

尽管A2A前景广阔,但有必要问:它能解决所有问题吗?当然不能。与MCP或任何新技术一样,A2A自身也存在一系列挑战,并非多代理系统的万能解药。更恰当的看法是,将A2A视为一种强大的赋能工具——一个集成层,使原本不可行的工作流变为可行——但它本身并不能保证成功。

一个重要的限制是:A2A不会让代理变得更智能——它只是让代理之间更容易沟通。如果你将两个能力一般的代理连接在一起,并不会产生惊人的效果;相反,你可能陷入无休止的任务传递而没有实质进展。有效的协作仍然需要精心设计:明确谁负责什么任务、确保共享目标、处理失败情况。简言之,A2A并不能取代编排智能,它只是让编排中的通信标准化。

采用A2A还会带来运营上的开销。每个代理都变成了一个服务(带HTTP端点或嵌入式服务器),这意味着你要管理一个代理网络:Workday上的人力资源、Salesforce上的销售、自定义的Python分析——所有这些都需要进行发现、认证、监控和弹性处理。这其实又回到了微服务的模式。对于小型工作流,简单脚本可能更高效。就像MCP一样,只有在你有大量工具和上下文时才值得投入;同样,A2A只有在你整合了多个、能力各异的代理时才真正有价值。

A2A的规范还是全新的(技术上仍是草案),未来可能会不断演变。开发者应预期可能出现破坏性变更、边缘情况错误以及规范更新。与任何新协议一样,早期采用者在使用时也承担了测试者的角色。如果你不准备在社区中保持活跃,这可能成为一个门槛。

兼容性也是一个挑战。A2A的价值会随着支持它的代理和供应商数量增加而提升。如果没有足够的生态支持,你可能更适合直接使用原生API。谷歌已经聚集了令人印象深刻的企业合作伙伴群体,但像OpenAI和Microsoft这样的关键玩家尚未公开支持A2A(Microsoft的Semantic Kernel博客展示了一个实验性A2A适配器,但那只是SDK团队的实验——并非正式支持)。Anthropic的MCP是互补的,但并不等同。如果最终出现协议之争——A2A vs. MCP vs. 其他方案——开发者可能被迫构建适配器,或者退回到脆弱的集成方式。

安全也是一个关键问题。A2A内置了令牌认证和TLS,但现实环境下的策略、凭证和审计仍需用户自行管理。企业可能需要“代理网关”——相当于API网关——来管理代理间的信任。

以上都不是无法克服的问题。这只是新基础设施的常态。微服务花了数年才成熟,A2A也需要时间。它不是万能的解决方案——它是一种协议连接层。但只要有正确的期望和试点项目,它可以解决多代理系统中的通信难题。其余的成败仍取决于良好的设计、周到的实现,以及愿意推动社区前进的人群。

MCP和A2A会成为竞争对手吗?

简短回答:不会。虽然有人认为,如果A2A开始涵盖原本由MCP承担的功能——尤其是当公司开始主要将其数据和服务建模为独立代理,而不仅仅是工具或资源——可能会出现竞争,但我认为这种情况极不可能发生。

工具和资源始终是代理系统中独立且必要的构建模块,其整合空间足够广阔,能够同时容纳两种协议。MCP擅长标准化LLM与外部数据源或工具之间的交互,而A2A则专注于安全、有状态的代理间通信。考虑到它们的互补优势以及庞大的代理生态系统,MCP和A2A将能够共存,各自找到明确且有价值的角色。

A2A在代理式编排中的定位及其在AI技术栈中的位置

A2A在新兴的AI基础设施栈中处于什么位置?要回答这个问题,可以设想将原始AI模型转化为有用自主代理所涉及的各个层次。在我们之前的讨论中,我们已经拆解了代理系统的组成部分——如记忆、推理和工具使用。A2A并不试图解决所有这些问题;它作为一个通信与协调层插入其中。

首先,考虑单个代理。它通常由核心模型(如LLM)、行为逻辑(通过提示或规划实现)以及与外部世界交互的机制(工具、API)组成。LangChain、Semantic Kernel和谷歌的代理开发套件(ADK)等框架帮助管理这些部分。而MCP,如我们之前所讨论的,则标准化了代理如何接入外部工具。

A2A位于更高一级:代理到代理。如果说MCP和工具API让代理能够作用于外部世界,那么A2A让代理能够作用于彼此。它们是互补的,而非竞争关系。实际上,它们经常结合使用。一个代理的A2A卡片可以宣传由MCP内部驱动的能力——例如,“发票处理代理”可以通过A2A提供提取发票字段的功能,同时在底层使用OCR工具(通过MCP)。A2A负责编排多代理工作流,而每个代理仍然负责自身的内部工具管理。

技术栈层次:

  1. LLM 与推理 —— 核心智能与决策逻辑

  2. 工具/上下文接口(MCP、插件) —— 让代理能够使用外部工具和数据

  3. 代理框架/运行时 —— 管理代理循环、记忆以及任务拆分

  4. 代理间协议(A2A) —— 允许代理跨系统进行协调和任务委托

  5. 编排器/管理器 ——(可选)用于决定何时调用其他代理的监督逻辑

需要强调的是,A2A并不会取代LangChain、Semantic Kernel或其他代理框架——它使这些框架能够互操作。A2A的GitHub仓库已经提供了针对LangChain、LlamaIndex、Marvin、Semantic Kernel等的适配器。现在,LangChain代理和Semantic Kernel代理可以在无需自定义中间代码的情况下进行协作。

这是一个熟悉的模式:在早期Web开发中,应用程序无法互通,直到REST等协议标准化了通信方式。如今,A2A试图为AI代理实现同样的目标。

最后,虽然OpenAI的函数调用允许代理内部使用工具,但A2A实现的是代理之间的协作。它们服务的范围不同,并且很可能在复杂系统中共存。

如果A2A成功,它将成为多代理工作流的“通用语”——安静但关键,推动下一阶段的AI基础设施发展。

A2A解锁的全新可能性

由于A2A尚未进入主流意识,许多人低估了它使可能的workflow和协作类型。让我们看几个例子。

专家代理团队协作:

与其构建一个处理所有事务的巨型代理,A2A允许专业代理团队进行动态协作。例如,在客户支持场景中,技术故障排查代理、财务代理和促销代理可以在同一会话中无缝交接任务,模拟人类团队的协作方式。用户只需与单一前端交互,而代理在后台协同工作。

跨企业工作流:

企业通常运行在多个平台上——Salesforce用于CRM,ServiceNow用于IT,Workday用于HR。有了A2A,HR代理可以直接请求IT配置笔记本电脑,无需手动提交IT工单或依赖脆弱的API中间逻辑。每个代理在自身领域保持高效,同时能够通过协议接入更大规模的跨公司工作流。

动态代理替换与升级:

A2A标准化了代理能力,为模块化提供了可能。你可以将一个开源摘要代理替换为商业代理,而无需更改调用方式。随着时间推移,这可能催生一个互操作代理的市场——雇佣法律分析代理、翻译代理或市场研究代理——所有代理都使用A2A进行通信。

人机协作的监督:

并非所有代理必须是AI。人类也可以通过A2A客户端参与——批准或修改AI建议的任务,或监控代理之间的敏感交互。通过标准化的制品和任务状态,这种正式的交接与监督变得更容易。

跨组织的联邦代理:

展望未来,A2A可以让来自不同公司的代理安全协作,跨组织边界交换任务。供应链代理进行库存谈判、跨公司研发团队协作——只要建立了信任层和协议,这些都将成为可能。

以前,许多这样的设置要么不可行,要么成本极高。具有讽刺意味的是,当AI领域追逐更大模型和更炫的提示时,可能正是像A2A这样低调的基础设施解锁了全新的能力。通过让代理协作模块化、安全且即插即用,A2A降低了创新门槛——而我们才刚刚开始看到它的潜力。

结论思考

谷歌是否可能将A2A转化为公共的、谷歌搜索式的代理索引?

技术上,是的。

规范已经要求每个符合标准的代理在/.well-known/agent.json 发布机器可读的代理卡片。这为爬虫提供了完美的入口:只需跟随URL、抓取卡片,并将元数据存入Bigtable——这正是谷歌将 robots.txt + sitemap.xml 转化为网页索引时所采用的模式。今天,这一步发现过程是点对点的,但没有什么能阻止“Agent版谷歌机器人”在互联网规模上执行同样的工作。

谷歌云内部的早期信号显示出强烈需求。

Agentspace 的代理画廊已经是一个针对企业客户的受控、可搜索目录;它列出了谷歌构建的、合作伙伴的以及内部的代理,并通过云市场进行分发。这就像一个微型的代理应用商店——只是目前缺少公共爬虫而已。

A2A铺好了管道;至于谷歌是否会把这些管道变成世界的总交换机,仍然是一个悬而未决的问题。不过,A2A还处于早期阶段。它今天的低调状态让人想起容器、Kubernetes 和 REST API 刚出现时的情况——悄无声息的起步,一旦生态系统成熟就会爆发。如果谷歌真的推出公共代理索引,它可能会成为自治软件的“DNS”——强大、有利可图,同时又充满政治敏感性。在那种未来尚未明朗之前,可以先进行A2A试点,关注竞争规范,并保持灵活。基础设施的胜利更多依赖于信任、激励机制,以及成千上万默默进行的集成故事,而非单纯的卓越技术。密切关注这些故事。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

在这里插入图片描述

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

在这里插入图片描述

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K(数据来源:BOSS直聘报告)

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

02.大模型 AI 学习和面试资料

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

更多推荐