一、Transformer是什么?从核心定义到整体框架

Transformer是2017年由Google团队在《Attention Is All You Need》论文中提出的深度学习架构,它彻底摒弃了传统RNN(循环神经网络)的序列依赖结构,以自注意力机制为核心,结合编码器-解码器框架,成为当今大语言模型(如GPT、BERT)、机器翻译、文本生成等自然语言处理(NLP)任务的技术基石。

1.1 Transformer的整体框架:编码器与解码器的协同

Transformer的核心结构由编码器(Encoder)解码器(Decoder) 两大部分组成,二者通过注意力机制实现信息交互,共同完成“输入处理-特征提取-序列生成”的全流程。

在这里插入图片描述

编码器(Encoder):输入信息的“翻译官”

编码器的核心任务是将原始输入(如一段文本、一组图像特征)转化为包含语义关联和位置信息的固定维度向量表示(又称“上下文向量”)。它由N个结构相同的“编码层”堆叠而成(论文中N=6),每个编码层内部包含两个关键子层:

  • 自注意力层(Self-Attention Layer):通过计算输入序列中每个元素与其他所有元素的“注意力分数”,捕捉元素间的长距离依赖关系(例如“他”指代前文的“小明”)。
  • 前馈全连接层(Feedforward Layer):对自注意力层输出的向量进行非线性变换,将单个元素映射到更高维度的特征空间,提取更抽象的语义特征。
解码器(Decoder):目标序列的“生成器”

解码器以编码器输出的上下文向量和“已生成的目标序列片段”为输入,逐步生成完整的目标序列(如翻译结果、对话回复)。它同样由N个“解码层”堆叠而成,每个解码层在编码器子层的基础上增加了一个关键子层:

  • 自注意力层:功能与编码器一致,但需通过“掩码(Mask)”屏蔽未来位置的信息,避免模型“偷看”未生成的内容。
  • 编码器-解码器注意力层(Encoder-Decoder Attention Layer):将解码器当前生成的片段与编码器输出的上下文向量进行注意力计算,确保生成内容与原始输入语义对齐(例如翻译时“苹果”既指水果也指品牌,需结合输入上下文判断)。
  • 前馈全连接层:与编码器功能一致,对注意力层输出进行特征强化。

整个模型的信息流向可抽象为以下结构,清晰展现从输入到输出的全链路处理:

在这里插入图片描述

二、深入编码器:如何将输入转化为“有意义的向量”

编码器的核心是通过多层处理,将离散的输入(如文字)转化为连续的、包含语义和位置信息的向量。其内部关键模块包括输入嵌入、位置编码、多头注意力、残差连接、层归一化和前馈网络,我们逐一拆解:

2.1 输入嵌入(Input Embedding):让计算机“读懂”文字

计算机无法直接处理文字符号,输入嵌入层的作用就是将每个离散的输入单元(如单词、子词)映射为固定维度的稠密向量(例如512维),使模型能够通过向量运算捕捉语义关联。

举个直观例子:若输入文本为“how are you?”,输入嵌入层会将“how”“are”“you”三个单词分别映射为长度相等的向量(如512维),每个向量的数值由模型在训练过程中学习,语义相近的单词(如“happy”和“glad”)对应的向量在空间中的距离会更近。

在这里插入图片描述

2.2 位置编码(Position Encoding):给向量“打上位置标签”

Transformer的编码器采用并行计算方式,输入序列的所有元素会同时被处理——这虽然提升了计算效率,但也带来一个问题:模型无法区分元素的语序(例如“猫追狗”和“狗追猫”的输入向量若不考虑位置,会被视为相同)。

位置编码的作用就是通过特定规则,为每个输入元素的嵌入向量添加“位置信息”,确保模型能识别语序差异。

2.2.1 为什么需要位置编码?用代码直观理解

假设输入序列经过线性层处理时,若不加入位置信息,交换元素位置后输出结果会完全对应交换,模型无法感知语序变化:

import numpy as np
# 假设线性层权重矩阵w(3行2列)
w = np.array([[1, 2], [3, 4], [5, 6]])
# 原始输入x(3行3列,每行代表一个元素的向量)
x = np.array([[1, 2, 3], [4, 5, 6], [7, 8, 9]])
print("原始输入的线性层输出:")
print(x.dot(w))
# 输出:
"""
[[22, 28]  # 第一个元素的输出
 [49, 64]  # 第二个元素的输出
 [76, 100]] # 第三个元素的输出
"""

# 交换输入元素的位置(第一行与第三行交换)
x_swap = np.array([[4, 5, 6], [7, 8, 9], [1, 2, 3]])
print("\n交换位置后的线性层输出:")
print(x_swap.dot(w))
# 输出:
"""
[[49, 64]  # 原第二个元素的输出(现在是第一个位置)
 [76, 100] # 原第三个元素的输出(现在是第二个位置)
 [22, 28]] # 原第一个元素的输出(现在是第三个位置)
"""

可见,若无位置编码,模型无法区分“元素本身”和“元素位置”的差异,而位置编码正是为了解决这一问题。

2.2.2 Transformer的位置编码方案:正余弦编码

Transformer采用正余弦函数生成位置编码向量,其公式如下:

  • 对于输入序列中位置为pos、嵌入向量维度为i的元素,若i为偶数:
    PE(pos,i)=sin⁡(pos100002i/dmodel)PE_{(pos, i)} = \sin\left(\frac{pos}{10000^{2i/d_{model}}}\right)PE(pos,i)=sin(100002i/dmodelpos)
  • i为奇数:
    PE(pos,i)=cos⁡(pos100002i/dmodel)PE_{(pos, i)} = \cos\left(\frac{pos}{10000^{2i/d_{model}}}\right)PE(pos,i)=cos(100002i/dmodelpos)

其中,d_model是嵌入向量的维度(论文中为512)。这种编码方式的优势在于:

  1. 生成的位置向量与嵌入向量维度一致,可直接相加融合;
  2. 能捕捉到“相对位置”信息(例如位置3与位置1的差值,和位置5与位置3的差值,编码后具有相似的关联性);
  3. 可扩展到任意长度的序列(即使输入序列长度超过训练时的最大长度,仍能生成合理的位置编码)。

例如,输入句子为“I am a robot”(4个单词,位置0-3),其位置编码向量的可视化结果如下:
在这里插入图片描述

2.3 多头注意力机制(Multi-Head Attention):让模型“多角度关注信息”

注意力机制的核心思想借鉴了人类的“选择性关注”——例如阅读时会重点关注关键词,而非所有文字。Transformer通过自注意力机制让模型对输入序列的不同位置分配不同权重,而“多头注意力”则是对自注意力的优化,让模型从多个角度捕捉信息。

2.3.1 自注意力机制:计算“谁和谁更相关”

自注意力机制通过三步计算输入元素间的关联权重:

  1. 生成Q、K、V向量:将每个输入元素的嵌入向量(已融合位置编码)分别与三个可学习的矩阵(Query矩阵、Key矩阵、Value矩阵)相乘,得到对应的Q(查询向量,代表“当前元素要找什么”)、K(键向量,代表“其他元素有什么信息”)、V(值向量,代表“其他元素的具体信息”)。
  2. 计算注意力分数:将当前元素的Q向量与所有元素的K向量做内积,再除以dk\sqrt{d_k}dk dkd_kdk是K向量的维度)——这一步是为了避免内积结果过大,导致softmax函数输出趋近于0或1,引发梯度消失。
  3. 权重归一化与信息聚合:对注意力分数做softmax归一化(使权重总和为1),再与所有元素的V向量加权求和,得到当前元素的“注意力输出向量”(融合了所有相关元素的信息)。

用公式可表示为:
Attention(Q,K,V)=softmax(QKTdk)VAttention(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)VAttention(Q,K,V)=softmax(dk QKT)V

其过程可视化如下:
在这里插入图片描述

2.3.2 多头注意力:并行捕捉多维度关联

多头注意力的本质是“将自注意力机制并行执行多次”——通过将Q、K、V向量拆分为h个独立的子向量(h为“头数”,论文中h=8),每个子向量对应一个“注意力头”,独立计算自注意力输出,最后将所有头的输出拼接起来,再通过一个线性层映射回原始维度。

这种设计的优势在于:

  • 每个注意力头可关注不同类型的关联(例如一个头关注“主谓关系”,另一个头关注“动宾关系”);
  • 增强模型对复杂语义的捕捉能力,避免单一注意力头的局限性。

其结构可视化如下:
在这里插入图片描述

2.4 残差连接(Residual Connection):解决“深层模型训练难”问题

随着编码器层数的增加(论文中为6层),模型容易出现梯度消失或梯度爆炸问题,导致深层网络难以训练。残差连接的解决方案很简单:将子层(如多头注意力层)的输入直接与输出相加,形成“ shortcut 路径”。

公式表示为:Output=SubLayer(Input)+InputOutput = SubLayer(Input) + InputOutput=SubLayer(Input)+Input

这样做的好处是:

  1. 梯度可通过“shortcut路径”直接反向传播,缓解梯度消失;
  2. 确保深层网络能保留浅层网络学习到的基础特征,避免特征被过度修改。

其结构如下:

在这里插入图片描述

2.5 层归一化(Layer Normalization):让训练更稳定

在残差连接之后,Transformer会对输出向量做“层归一化”处理。与批归一化(Batch Normalization)不同,层归一化是对单个样本的所有特征维度进行归一化(例如对一个512维的向量,计算其均值和方差,再标准化),而非对一批样本的同一维度归一化。

为什么选择层归一化?

NLP任务中,输入序列的长度通常不固定(例如有的句子10个词,有的句子50个词),批归一化需要对“同一批次中所有样本的第i个位置”进行统计,若序列长度不一致,会导致统计结果不准确。而层归一化仅依赖单个样本的特征,不受序列长度影响,更适合NLP场景。

层归一化的作用是:

  1. 使每个子层的输出向量分布更稳定,加速模型训练;
  2. 避免因参数更新导致的向量数值波动过大,提升模型鲁棒性。

其结构如下:
在这里插入图片描述

2.6 前馈网络(Feed Forward Network):强化特征表达

前馈网络(简称FFN)是编码器每个子层的最后一步,本质是两个全连接层构成的“点对点”变换(即对每个元素的向量独立处理,不涉及跨元素交互)。

其流程为:

  1. 升维:第一个全连接层将输入向量的维度从d_model(512)提升到4*d_model(2048),通过更宽的维度捕捉更丰富的特征;
  2. 非线性激活:使用ReLU(或GELU,当前大模型更常用)激活函数,引入非线性,让模型能学习复杂的语义映射;
  3. 降维:第二个全连接层将向量维度从2048降回512,与输入维度保持一致,便于后续残差连接和层归一化。

前馈网络的输出会再次经过“残差连接+层归一化”,形成一个完整的编码层。

三、解密解码器:如何基于输入生成目标序列

解码器的核心任务是“逐步生成目标序列”,例如机器翻译中从“Hello”生成“你好”,对话系统中从“今天天气如何”生成“今天晴天,适合出游”。其结构在编码器的基础上增加了“掩码多头注意力”和“分类器”,确保生成过程的合理性。

3.1 输出嵌入(Output Embedding):目标序列的“初始向量”

与编码器的输入嵌入类似,解码器的输出嵌入层会将“已生成的目标序列片段”(如翻译任务中的“你”)转化为固定维度的向量,并与位置编码融合,作为解码器的输入。

例如,在训练阶段,若目标序列是“你好吗”,输出嵌入层会先处理“你”,生成向量后传入解码层;待“好”生成后,再将“你好”作为输入,以此类推。其结构如下:

3.2 掩码多头注意力(Masked Multi-Head Attention):防止“偷看未来信息”

解码器在生成序列时,必须遵循“从左到右”的顺序——例如生成第3个词时,只能利用第1、2个词的信息,不能提前使用第4、5个词的信息(否则会导致模型“作弊”,无法泛化到真实场景)。

“掩码”操作就是为了实现这一限制:在计算注意力分数时,对“当前位置之后的元素”的分数添加一个极大的负值(如-1e9),这样经过softmax后,这些位置的权重会趋近于0,模型无法关注到未来信息。

例如,生成第2个词时,掩码矩阵会将第3、4…N个位置的注意力分数屏蔽,其过程如下:

在这里插入图片描述

掩码后的注意力分数矩阵(Masked Scores)如下,可见未来位置的分数已被置为负无穷,确保模型只关注已生成的信息:

在这里插入图片描述

3.3 编码器-解码器注意力:让生成内容“对齐输入语义”

解码器的第二个注意力层是“编码器-解码器注意力”,其核心作用是将“当前生成的片段”与“编码器输出的上下文向量”关联起来,确保生成内容与原始输入语义一致。

其计算逻辑与自注意力类似,但Q向量来自“解码器掩码注意力层的输出”(代表当前生成的片段),K和V向量来自“编码器的最终输出”(代表原始输入的语义信息)。通过这种方式,模型能判断“当前该生成什么内容,才能与输入对应”。

例如,在翻译“Apple released a new phone”时,当解码器生成“苹果”时,编码器-解码器注意力会让模型关注输入中的“Apple”;生成“发布了”时,会关注“released”,确保翻译的准确性。其结构如下:

在这里插入图片描述

3.4 前馈网络与分类器:从向量到“具体单词”

解码器的前馈网络与编码器完全一致,作用是对注意力层的输出进行非线性变换,强化特征表达。而分类器则是解码器的“最终输出模块”,负责将前馈网络输出的向量转化为“单词概率”。

分类器的流程为:

  1. 线性层:将512维的向量映射到“词表大小”维度(例如词表有10万个单词,输出向量维度为10万);
  2. softmax层:对线性层的输出做归一化,得到每个单词的概率(概率最高的单词即为当前生成的词)。

其结构如下:

3.5 生成序列的停止条件

解码器会不断重复“生成单词-更新输入”的过程,直到生成特殊符号<eos>(End of Sentence,句子结束符),此时模型停止生成,输出完整的目标序列。

四、Transformer的核心优势:解决传统模型的三大痛点

Transformer之所以能成为大模型的基石,关键在于它解决了传统RNN、LSTM等模型的三大核心问题:

1. 长距离依赖问题:轻松捕捉“远距离关联”

传统RNN通过“循环传递隐藏状态”处理序列,但随着序列长度增加(如超过100个词),隐藏状态中的信息会逐渐衰减,导致模型无法捕捉远距离的语义关联(例如“小明今天去了公园,他玩得很开心”中,“他”与“小明”的关联的关联,若句子中间插入大量描述性内容,RNN可能会丢失二者的指代关系)。

而Transformer的自注意力机制通过全局计算注意力分数,无论两个元素在序列中距离多远,都能直接计算它们的关联权重。例如在“小明上周买了一本书,这本书讲的是人工智能,他花了三天时间读完,读完后还写了一篇读书笔记”这样的长句中,自注意力层能让“他”同时关联到“小明”,“这本书”同时关联到“一本书”,轻松解决长距离依赖问题。

2. 并行计算问题:大幅提升训练效率

传统RNN的训练过程具有“时序依赖性”——必须先处理序列中的第1个元素,才能处理第2个元素,再处理第3个元素,无法并行处理整个序列。这导致RNN在处理长序列或大规模数据时,训练速度极慢,甚至无法满足实际需求(例如训练一个包含百万级文本的模型,可能需要数周时间)。

Transformer则完全打破了时序依赖:编码器在处理输入序列时,所有元素的嵌入向量、位置编码、注意力计算可同时并行执行;解码器虽然需要按顺序生成序列,但训练阶段可通过“教师强制(Teacher Forcing)”策略,将完整的目标序列一次性输入,实现部分并行计算。这种并行特性让Transformer的训练效率相比RNN提升数十倍,为大模型的规模化训练奠定了基础。

3. 特征抽取问题:更精准的语义表征

传统模型(如CNN、RNN)的特征抽取能力存在局限:CNN通过卷积核捕捉局部特征,难以处理长序列的全局关联;RNN虽能处理序列,但特征抽取依赖时序传递,容易丢失关键信息。

Transformer通过“多层堆叠+多头注意力+前馈网络”的组合,实现了更精准的语义特征抽取:

  • 多层堆叠让模型能从“基础语义”(如单词本身含义)逐步学习到“高级语义”(如句子逻辑、篇章结构);
  • 多头注意力让模型能同时捕捉不同维度的关联(如语法关联、语义关联);
  • 前馈网络的非线性变换则进一步强化了特征的区分度。例如在情感分析任务中,Transformer能同时关注“高兴”“开心”等正面词汇,以及“但是”“不过”等转折词,更精准地判断文本情感倾向。

五、Transformer的延伸与应用:从NLP到多领域

自2017年提出以来,Transformer不仅彻底改变了NLP领域,还逐渐延伸到计算机视觉、语音处理等多个领域,成为通用人工智能的核心架构之一。

1. NLP领域:大语言模型的“基石”

Transformer在NLP领域的应用最为广泛,衍生出了两类核心模型:

  • Encoder-only模型:仅使用Transformer的编码器部分,擅长“理解类任务”,如BERT(双向编码器表示模型)。BERT通过双向注意力捕捉上下文信息,在文本分类、命名实体识别、问答系统等任务中表现优异,成为后续众多理解类模型的基础。
  • Decoder-only模型:仅使用Transformer的解码器部分,擅长“生成类任务”,如GPT(生成式预训练Transformer)。GPT通过自回归生成(从左到右逐词生成),在文本生成、对话机器人、代码生成等任务中表现突出,当前主流的大语言模型(如GPT-4、文心一言)均基于Decoder-only架构优化。

2. 跨模态领域:打破数据类型的界限

Transformer的注意力机制天然适合处理多模态数据(文本、图像、语音等),衍生出了跨模态模型:

  • ViT(Vision Transformer):将图像分割为多个“图像块”,视为“序列元素”输入Transformer编码器,实现了图像分类、目标检测等任务的突破,性能超越传统CNN;
  • CLIP(Contrastive Language-Image Pre-training):通过Transformer将文本和图像映射到同一向量空间,实现“文本检索图像”“图像生成文本”等跨模态任务,为AIGC(生成式人工智能)提供了重要支持。

3. 语音与推荐领域:拓展应用边界

  • 语音处理:Transformer可将语音信号转化为“梅尔频谱图”序列,通过编码器实现语音识别、语音合成;
  • 推荐系统:将用户行为(如点击、购买)视为“序列”,通过Transformer捕捉用户的长期兴趣和短期偏好,提升推荐精准度。

六、总结:Transformer为何能成为“通用架构”?

Transformer的成功并非偶然,其核心优势在于:

  1. 注意力机制的灵活性:能自适应地捕捉数据中的关联信息,不受数据类型和序列长度的限制;
  2. 并行计算的高效性:解决了传统模型训练慢的痛点,支持大规模数据训练;
  3. 架构的可扩展性:通过层数堆叠、头数调整、维度优化等方式,可灵活适配不同任务需求。

对于开发者而言,理解Transformer架构不仅能帮助我们更好地使用大模型(如调参、优化prompt),还能为自定义模型开发提供思路。无论是NLP、CV还是跨模态任务,Transformer都为我们提供了一套通用的解决框架——这也是它能成为人工智能领域“基石架构”的根本原因。

如果您正在学习大模型开发或相关领域,建议收藏本文,反复梳理Transformer的核心模块与逻辑,为后续的技术实践打下坚实基础!

七、如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

在这里插入图片描述

八、为什么要学习大模型?

我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。

在这里插入图片描述

在这里插入图片描述

九、大模型入门到实战全套学习大礼包

1、大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

img


2、大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

在这里插入图片描述

3、AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

img

4、大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

img

5、大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

img

适用人群

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

Logo

更多推荐