代码:https://gitee.com/holyshare/model_fune_tuning

当时因为是创业项目空气小猪(AI+英语)的发布周,我在到处当客服,线上一堆BUG,程序员也不想搭理我,所以整体写得没那么细,学员是懂了一些又没全懂,于是今天补充一篇简单的。

首先依旧必须重复昨天的问题:当前模型如此强大的情况下,提示词可以完成很多工作,所以为什么还要微调?

WHY 微调

当前AI应用开发有个实际的情况:很多微调能做的事情完全可以用提示词搞定,于是这也很容易让我们产生一个幻觉:提示词和微调是一样的,他们都影响了模型的输出预测,非要说哪里不一样,可能微调的特化能力强一些吧

但其实两者的本质有很大的区别:提示词属于“引导”,而微调是“改造”,其中所谓泛化能力强弱的关键在于,提示词属于输入级别的控制,而微调是参数级别的迁移,会直接影响模型的“脑回路”,最直接的影响是对某些任务变敏感了。

比如以下几个场景都可以直接使用提示词,又总是会在一些情况下需要用到微调:

简单意图识别

任务:把一句管理口语判为以下 5 个意图之一
A 目标不清
B 忙闲不均
C 管理者精力不足
D 员工精力不足
E 沟通迟滞

这个场景用提示词轻松搞定:

用户:A组加班到半夜,B组一堆人闲着刷手机
输出:{"label":"B"}

用户:产品目标周周变,大家都不知道先做哪个
输出:{"label":"A"}

在这种主流的表述中提示词准确率非常高,绝对的95%+,但在遭遇以下场景时可能会打折扣。

一、表述变异过大。当出现大量方言、口语化表达、行业黑话甚至错别字时,就有点麻烦了,比如:俺们组肝到秃头,隔壁组摸鱼划水?那还加锤子班?

二、多重转折。如果一个句式表达了多重意图,模型也可能出错,比如:虽然不像以前那么忙了,但是目标天天变,更累了

三、边界模糊。还是上述的问题,虽然不是多重转折了,但同时表达多个特征,并且没有倾向性,就像捣蛋一样,这种不同模型的答案会不一样,这会直接影响稳定性,比如:老板口径每天变 vs 岗位职责说不清

如果是发现产品在这块不稳定,提示词怎么都调不好,那么就需要微调出场了:

{"text": "俺们组肝到秃头,隔壁组摸鱼划水", "label": "B"}
{"text": "虽然不像以前那么忙了,但是目标天天变,更累了", "label": "A"}
{"text": "老板和大伙儿都蔫儿了,干啥都提不起劲", "label": "C"} // 融合了C和D,需根据定义明确标注

在这里插入图片描述

槽位抽取/关键词提取

这个是大模型过程中常见的任务,一般用于:判断一句话中是否出现或否定了多个特定概念

用户:不是大家偷懒,更像任务拆分有问题
输出:{"present":[], "negated":["管理者长期疲惫影响节奏"]}

用户:A线忙疯了,B线一堆人闲着
输出:{"present":["部分人很忙、部分人很闲"], "negated":[]}

当对任务对判断的准确率要求极高,且提示词在复杂否定句上错误频发时,便需要微调登场了:

{
"text": "我觉得不是员工精力不足,而是管理者不会分配任务",
"output": {
"present": [],
"negated": ["管理者精力不足"]
  }
}

其实上述场景因为是管理场景还算简单的,因为模型本身对这些问题多少有些熟悉,但如果这里的特定概念是公司的黑话的话,那么复杂度就提升了,是一点都不能依赖模型能力,这里做法只有两点,要么提示词每次带上说明,要么真的只能微调了

微调是笨办法

从上述案例也可以看出来:微调其实也是很笨的办法,比如当遇到含糊不清/标签定义重叠/用户说法自相矛盾的场景,他也无力…

而且这是个前期ROI很低的事,一定是要面对海量的需求才用微调,比如在万级以上的处理时,1%的错误就是100个客户被错误分类,那么这个时候就值得做,也不好在提示词里面手动搞案例了。

另外,我实际在槽位抽取这里会用到微调的原因也不是什么准不准的问题,完全就是因为我想要更快的响应,并且就是用小模型微调,所以他根本不存在让大模型记住这些黑话的场景,当前来说依旧是提示词更好用。

所以,我们这里就来说说这个复杂、独特或模糊的分类任务,也就是常说的意图识别和槽位抽取(关键词提取)。

意图识别

在进行槽位抽取(关键词提取)一块的内容前,我们特别聊一下意图识别能不能用小模型替换的问题;就我个人的实践来说,答案是悲观的

如果是简单场景的AI问答,比如常见的知识库,完全可以启用微调小模型,但如果是复杂场景,比如医疗AI中的慢病管理系统、复杂的客服系统这种东西,小模型是吃不消的。

原因是这些场景里面其实对语义理解要求挺高的,因为他其实需要从10多轮聊天中判断自己接下来该干什么,我举个例子:

系统一共有ABCDE五个意图,并且用户可能随便切换,而且从A切到B后,聊几句他又想切回A,并且这是非常正常的操作。

比如用户线抱怨了下产品,马上就问有没有什么优惠条件,接着就去询问新产品,这都是有可能的;

又比如说慢病管理体系,患者先是寻求诊断,中途突然问医保信息,完了又要问某个药品的信息,最后又回归问诊流程,这种行为正常医生可能马上就一巴掌呼过去了,但AI场景下是一定会发生,并且是正常逻辑。

只不过,这不再是简单的单句分类,而是需要模型具备对话状态追踪的能力。它必须理解整个对话的上下文脉络,并据此决定当前的正确行动。

综上,AI多轮问答类项目,还是建议使用大模型,不建议做微调,或者小模型做初筛,置信度低的时候再启用大模型,这是可以的…

最后回归微调大主题,我们来说下关键词抽取。

概念抽取/多标签分类

关键词提取是非常经典并且当前还真的有需要的微调场景,需要将多变、模糊、非结构化的用户口语输入,准确无误地映射到固定、明确、结构化的专业术语体系输出

这正命中微调的核心任务:教会模型一套新的、特定的语言或分类体系。

首先要明白,提示词在这个场景下其实是有点麻烦的,原因很简单:少量样本学习 (Few-shot)搞不定,确实太多了!

比如:提示词中当然可以将**“刻骨铭心的头疼”、“脑壳痛”、“脑袋嗡嗡的”都全部映射到头痛**这个标签。

但除了头痛还有胸痛、屁股痛、耳朵痛呢,当前医学上记录到的症状数量非常庞大,按常用本体约在1–3万级,若扩展到“临床发现”层级(含症状/体征等)则达十万量级。

如果这十万量级每个再扩展个10个口语马上就百万级别了,所以这种东西是没办法放到提示词的。

这样说起来比较虚,还是来一个实际案例:

员工调查

在之前我做管理咨询的时候,会有一个行为叫员工调查,他是一种定期、简短的员工反馈机制,旨在持续跟踪员工的满意度。

这类调查经常包含开放式问答,员工可以填写自由文本表达意见和建议。然而,大量非结构化的文本反馈给分析带来巨大挑战:不同员工可能用多种措辞讨论相似主题,导致难以直接量化和比较。

为了解决这个问题,当时是做了一个关键词归一化的任务,通过构建AI模型将员工的自由文本评论归类到预先定义的一组标准化关键词(主题类别)上,这也是典型的小模型微调场景了。

关键词归一化

关键词归一化这个是各种AI项目非常典型的任务,这个场景是指将不同员工在反馈中使用的各种表述,映射到统一的主题关键词上,比如:

不同员工可能用“薪水低”、“工资不满意”、“待遇需要提高”等不同说法来表达关于薪酬福利的诉求,通过关键词归一化,这些不同措辞都归入统一的“薪酬与福利”类别下,方便统计和比较。

类似的,“领导沟通不足”和“经理不听取意见”可以归为“管理沟通”类别。这种归一化的结果是可以极大的简化我某部分提示词的设计

数据治理

归一化的前提是有关键词,并且整个系统只有一套关键词。以当时一次实际收集情况来说,8000条员工评论,每条评论平均长度约为20~50个字,涵盖了从工作环境、薪资福利到职业发展、管理沟通等各方面内容。

接下来就是微调前期的数据处理工作流:

一、数据清洗

主要工作很简单,首先是脱敏、其次是一些错别字、格式上的优化,这种完全是体力活。

二、重要:归并术语表

这个是最重要的一步,这个术语表后续会形成结构化的知识库,甚至会全系统使用,绝对要保证其对一份!

实际工作就是将穷举后的评语进行分类,比如:加班”与“加点”、“工作与生活平衡”与“劳逸结合”、“领导”与“老板”等。

而后就是各种数据标注开始了,例如要求标注者看到“工资”“薪水”“收入”都统一标记为“薪酬与福利”类。

三、数据集划分

完成清洗和预处理后,我们要对数据进行了数据集划分,用于模型训练和评估,比如:80%作为训练集,10%验证集,10%测试集

具体分层抽样时,要确保各主要类别在三份数据集中大致按相同比例出现,以避免某些类别只出现在训练集而未在验证/测试集充分覆盖。

四、数据增强

在基本数据集准备好后,就可以用AI**“耍点手段”了,要扩大样本量,例如为每条训练样本生成带同义词替换的额外句子,从而扩大训练数据量并改善模型对不同表述的泛化能力**。

数据增强具体方法包括:基于同义词词典随机替换部分词语、轻微改变句式,如把陈述句改为“我觉得…”引导的形式等。这些方法均在不改变原始语义的前提下增加了数据多样性,提高模型鲁棒性。

无论是微调还是RAG,数据工程一直是AI项目中最为重要的部分,涉及最终成败,不可不慎。

如果是大型AI项目做数据工程会有严格的质检流程,通常是需要一个后台系统、或者标注工具的,我们这里是简单场景,直接上AI表格就好,最终会形成一个清单:

术语清单

类别名称 定义说明 (归一化关键词涵盖的主题) 示例关键词/短语
薪酬与福利 有关工资水平、奖金、福利待遇、公平性的反馈。 薪资、工资、奖金、补贴、福利、加薪
职业发展 有关培训学习机会、晋升通道、职业成长的反馈。 培训、晋升、职业路径、学习机会
工作与生活平衡 有关加班、假期、弹性工作制、工作强度与个人生活平衡的反馈。 加班、休假、996、工作强度
管理支持 有关直属上级和高层管理的领导力、沟通、决策支持的反馈。 领导、主管、经理、管理层、沟通
团队协作 有关同事之间合作、团队氛围、人际关系的反馈。 同事、团队合作、氛围、帮忙
公司愿景与文化 有关公司文化、使命愿景、价值观以及员工认同感的反馈。 企业文化、愿景、价值观、认同
沟通透明度 有关公司内部信息沟通、决策透明度、反馈渠道的反馈。 信息透明、沟通、反馈机制
工作环境 有关办公环境、设备设施、后勤支持(如食堂、班车)的反馈。 办公室环境、设备、网络、食堂
制度与流程 有关公司规章制度、流程规范、审批效率的反馈。 流程繁琐、制度、审批、规则
认可与激励 有关员工认可、表彰、激励机制(如绩效奖励、晋升机会)的反馈。 表彰、激励、绩效奖金、晋升机会
客户导向 有关为客户服务、用户反馈、产品质量等影响员工工作的反馈。 客户反馈、产品质量、用户抱怨
其他 无法归入上述明确类别的其他问题反馈。 (例如涉及个人特殊情况的建议)

上述每个类别都有明确的边界和涵盖范围说明,以指导标注和模型学习。需要注意,有些类别之间可能存在关联,如“管理支持”与“沟通透明度”常有关联,管理不支持往往体现为沟通不畅。

但在标注时我们要求就事论事,按照反馈内容直接提及的主题分类,避免因类别关联而过度延展。

例如:“领导没有及时分享公司战略”主要标记为“沟通透明度”,不标记“管理支持”,尽管这是管理行为的一部分,以保持标签独立性。这种约定在标签定义阶段已就要明确。

并且真实场景会有非常复杂的层级关系,我们这里只是做案例说明便不延展了…

任务定义

数据准备好了,就要进入微调任务设定,这里事实上是一个多标签文本分类任务:输入为一段员工的开放式反馈文本,输出为该文本所属的一个或多个预定义类别(关键词)。

与一般的单标签分类不同,多标签意味着每条反馈可能对应多个主题关键词。例如,一条反馈“薪资不高,加班又多,希望领导合理安排工作”同时涉及“薪酬与福利”、“工作与生活平衡”、“管理支持”三个主题。

经过上述的处理,基本需求和数据也就七七八八了,接下来我们就要进行微调环节了,只不过在此之前,我们要思考下:到底选什么模型

微调模型选择

如果无脑选择的话,直接上Qwen32B就好,只不过当前场景其实仔细思考,可能他并不是最优解。

近两年基座模型发展迅速,大家听得较多的都是GPT、Claude、DeepSeek、Qwen、智谱等偏文字推理型模型,事实上在关键词提取这种任务上,他们可能赶不上BERT。

关于这个小领域的讨论有很多,我印象比较深刻的是**《Are We Really Making Much Progress in Text Classification? A Comparative Review》**,这是一篇批判性研究报告,他的核心观点是:

在文本分类领域,许多新提出的、复杂的深度学习模型所声称的“巨大进步”可能被严重高估了。论文通过大规模、系统的对比实验证明,一些简单、经典的基线模型(如线性模型)的性能被长期低估,它们往往能与甚至超越许多新提出的复杂模型,尤其是在标准基准数据集上。

我们这的任务是多标签分类,即一段文本可能同时属于多个类别(如“薪酬”和“加班”)。这需要模型为每个类别输出一个独立的概率。

从模型架构上看,编码器模型(如BERT)是为分类任务而生的,而生成式LLM是在“模拟”分类任务,存在先天架构劣势。

并且论文数据和实践表明,BERT类模型在分类任务上性能顶尖,且训练和推理效率远超LLM,部署成本低数个量级。

最终,我们选择用 RoBERTa-wwm-ext,工大发布的基于BERT的中文模型,其参数量约1.1亿(我们做demo选得小,实际可以选性能好点的)。

具体微调

具体到微调过程中会出现很多专有名词,比如:

  1. 全参数微调(Full Fine-tuning)
  2. 部分参数微调(Partial Fine-tuning)
  3. 参数高效微调(PEFT, Parameter-Efficient Fine-Tuning)
  4. 学习率。控制参数更新的步长;
  5. batch size。每次迭代训练时输入的样本数量;
  6. 训练轮数。完整遍历数据集的次数;
  7. 最大序列长度。输入文本截断或填充到的最大 token 数;
  8. 学习率调度器;

这些专业名词,在各位具体训练时候自然会慢慢理解,我们这里不做介绍,但有个词一定要理解“

拟合

拟合是训练过程中非常核心的概念,尤其是微调本质是去做具体任务,他很类似我们的学生考试:

欠拟合,学生根本没好好复习,只看了几眼目录,考试时,题目(训练数据)和没见过的题(测试数据)他都做不好,他没学会知识本身。

欠拟合的原因往往是模型太蠢,或者训练数据集特征太少,无法有效表征数据,不然就是训练有问题。

过拟合,学生没有理解知识,而是死记硬背下了所有习题和答案,考试时,如果出现原题,他能得满分;但只要题目稍微一变(测试数据),他就完全不会做了,他只记住了题目,没学会解题方法。

过拟合的原因往往是训练数据量不足,模型没学到规律;或者训练数据集里面噪音过多,最终体现出来就是没得泛化能力。

总而言之:效果不行就搞数据。随后便可以进入训练环节。

实际训练

微调模型的关键在于数据,而如何获取高质量的数据始终是一个难题,当前具体方法无非三种:

  1. 人工标注: 虽然准确性较高,但成本昂贵、效率低下;
  2. 大模型生成: 能够快速产出大规模数据,但质量参差不齐;
  3. 大模型生成 + 人工审核与标注: 在效率和质量之间找到平衡,是当前较为常见的方案;

我这里没办法把实际用的数据集拿出来,所以就用AI生成一些大家感受下过程即可。

然后 ConardLi 这个开源项目 可以帮助我们快速从文本、PDF等文件中,自动生成问题、答案:

最后是一些训练数据样例:

{"text": "系统经常卡死,沟通效率低", "labels": ["TOOLING_ISSUE", "COMMUNICATION"]}
{"text": "网络不稳定,压力很大", "labels": ["TOOLING_ISSUE", "WORKLOAD"]}
{"text": "发展渠道不开放,补贴取消了", "labels": ["CAREER_GROWTH", "COMPENSATION"]}
{"text": "系统经常卡死", "labels": ["TOOLING_ISSUE"]}
{"text": "决策不清楚", "labels": ["COMMUNICATION"]}
{"text": "任务排得太满", "labels": ["WORKLOAD"]}

然后是训练样本集:

数据集 样本数
训练集 1008
验证集 100
测试集 100
合计 1208

训练参数:

参数
训练轮数 2
学习率 1e-5
批次大小 8
权重衰减 0.05

这里代码数据量过大我就不上传了,后面放git上大家自己去看吧:

训练结果

输入:加班太多了
输出:COMPENSATION: 0.532; CAREER_GROWTH: 0.407; WORKLOAD: 0.392; TOOLING_ISSUE: 0.306; COMMUNICATION: 0.216; MANAGER_SUPPORT: 0.196

输入:加班
输出:COMPENSATION: 0.502; WORKLOAD: 0.447; CAREER_GROWTH: 0.366; TOOLING_ISSUE: 0.331; COMMUNICATION: 0.211; MANAGER_SUPPORT: 0.196

输入:加班像常态
输出:COMPENSATION: 0.461; WORKLOAD: 0.362; CAREER_GROWTH: 0.360; TOOLING_ISSUE: 0.291; COMMUNICATION: 0.221; MANAGER_SUPPORT: 0.190

从上面的数据来看:模型已经学到了一些东西,但是效果很差! 主要两点:

  1. 类别边界模糊:样本量不足或类别不平衡;
  2. 标签分布偏差:“加班” 可能被标注到不同的标签,模型学歪了;

所以,我们增加数据集,调高学习率和训练轮次:

增加训练数据

数据集 样本数
训练集 5317
验证集 661
测试集 672
合计 6650

训练参数:

参数 数值
训练轮数 3
学习率 2e-5
批次大小 16
权重衰减 0.01

训练结果如下:

但是从结果来看,泛化能力不足,过拟合了:

事实上这里很多原因就是训练数据集质量差所致

再次训练

为提高泛化能力,换了个模型整理数据放到一起,再次增加数据量:

  1. 训练集:8539 条
  2. 验证集:1176 条
  3. 测试集:1199 条

为减少过拟合并提升训练稳定性,对训练参数进行了调整:

  1. 训练轮数:从 3 轮减少到 2 轮
  2. 学习率 :从 2e-5 降低到 1e-5
  3. 批次大小:从 16 减少到 8
  4. 权重衰减:从 0.01 增加到 0.05

还在这个基础上做了正则化增强与早停机制,再次训练:

其结果为:

这个就是全参微调,我们再简单测试下LORA微调:

LORA微调

训练参数:

  1. 训练数据集:8539条
  2. 验证数据集:1176条
  3. 测试数据集:1199条
  4. 训练轮数:2轮
  5. 学习率:5e-4
  6. 批次大小:32
  7. 权重衰减:0.01

小结

主要的实验数据汇总:

我们测试一下几个问题:加班太多了、加班、加班是常态、经常加班、加班压力大、天天加班。几个模型输出workload标签的概率:

从前面几个问题的结果来看,LoRA 微调的效果相对最佳,不过,当前的简单测试只能反映模型表现的一部分,特别是这里的数据质量真的很差

模型评测

最后简单说下模型评测,上述的评测方式显然不行,业内现在已经有较成熟的方法做模型全面的评估,只不过这些效果好不好又得另说了,原因很简单:搞数据很烦,高高质量数据特别烦!

比如,要做模型评测要回答几个核心问题:

评测集怎么来?

人工打标签或者用现成的公开数据集(比如MMLU、CMMLU这些通用知识库,C-Eval中文测评集,GSM8K数学题集)确实可以提供,但一到具体场景全傻眼:想要评估什么能力就准备对应的数据集,那么就要深入相关行业

如何量化模型能力?

这里有些通用的方法:

  1. 分类任务: 看正确率和误判容忍度;
  2. 文本生成类: 用BLEU(像拼图相似度)、ROUGE(重叠率)、ChrF(字符级相似)这些指标;
  3. 问答场景: 追求一字不差(Exact Match)或者关键信息匹配(Token-level Match);
  4. 语言模型: 用困惑度(Perplexity)衡量预测能力,数值越低模型越"聪明";

测评要涵盖哪些维度?

  1. 基础知识储备(通用知识)
  2. 特定任务表现(任务能力)
  3. 抗干扰能力(鲁棒性)
  4. 处理速度与资源消耗(效率)

评估方式有哪些:

  1. **自动化评测:**适合快速大规模测试,比如跑完1万道题只需要几分钟
  2. **人工评估:**虽然费时费力,但能发现模型是否真的"懂"了,比如判断生成的诗歌是否押韵自然
  3. **常见组合:**先用自动评测筛出候选,再抽样人工复核

常用工具

  1. OpenCompass(清华)
  2. HELM(斯坦福)
  3. LM Evaluation Harness(EleutherAI)

具体这块因为不是今天的重点就不展开了,这里特别推荐OpenCompass就是。

结语

回到最初的问题:模型已很强,为什么还要微调?

因为真实业务要的不是更花哨的回答,而是把模糊口语变成稳定、低延迟、可治理的结构化输出。

在影响模型输出的几个常见名词中,RAG、微调与并不是对立面,而是不同的工具:能用提示词别上微调;需要最新事实用RAG;当词表固定、口语丰富、准确率与成本双高要求时,再考虑微调。

并且无论是RAG还是微调,他们都不是银弹,因为过拟合、数据泄漏、标签边界模糊等,想要解决都不是“招式”上能搞定的,而是要修数据与治理的内功。

普通人如何抓住AI大模型的风口?

领取方式在文末

为什么要学习大模型?

目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过 30%。
在这里插入图片描述

随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:
在这里插入图片描述

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!

最后

只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!

在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

在这里插入图片描述

大模型全套学习资料展示

自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。

图片

希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!

01 教学内容

图片

  • 从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!

  • 大量真实项目案例: 带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

02适学人群

应届毕业生‌: 无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌: 非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能突破瓶颈: 传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

image.png

vx扫描下方二维码即可
在这里插入图片描述

本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!

03 入门到进阶学习路线图

大模型学习路线图,整体分为5个大的阶段:
图片

04 视频和书籍PDF合集

图片

从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)

图片

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)
图片

05 行业报告+白皮书合集

收集70+报告与白皮书,了解行业最新动态!
图片

06 90+份面试题/经验

AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)图片
在这里插入图片描述

07 deepseek部署包+技巧大全

在这里插入图片描述

由于篇幅有限

只展示部分资料

并且还在持续更新中…

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

在这里插入图片描述

Logo

更多推荐