前言

本期主要是为后面深入大模型微调的研究进行开篇,需要理清楚模型蒸馏、检索增强、模型微调的基本概念和区别

蒸馏:适合快速部署、资源受限的场景

RAG(检索增强):适合需要外部信息增强、实时更新的应用

微调:适合领域专用、高精度需求的场景

蒸馏(Knowledge Distillation)

老师讲技能传授给学生, 继往圣之绝学

概念:将一个大而复杂的"老师"(即一个大模型)的知识,提取并简化成一个"小而轻便的学生"来执行任务。通过这种方式,虽然"学生"模型比"老师"小,但它仍然能够保留老师大部分的的能力。

优点 * 效率高 快速执行任务,适合资源有限的场景(如移动设备、低功耗设备)减少计算开销,需要的计算和存储资源少,适合商业化产品的快速响应和低成本要求 * 保留知识 通过蒸馏,依然能保留大模型的一部分知识,模型的性能基本可以得到保证
缺点 * 损失精度 虽然蒸馏模型能够保留大部分知识,但会丢失一些细节,尤其是在复杂任务上的表现可能逊色于原始大模型。 * 依赖大量数据标注和训练 为了蒸馏出高效的小模型,通常需要大量标注数据,且训练过程较为复杂。
适用条件 * 硬件资源有限 比如手机、物联网设备 * 需要快速部署 当需要迅速推出一个市场化的产品时,蒸馏可以帮助在保证合理精度的前提下,快速减小模型的体积
典型案例 * Deepseek-R1模型 * 百度的Ernie轻量化模型 * 华为的MindSpore

检索增强生成(RAG)

老师去找参考资料,虽然我不懂,但我可以帮你找一下

概念:RAG不仅仅依赖模型的内部知识,还通过外部的检索系统统(如数据库、文档或网络)来增强生成的内容。它就像是一个"知识更加全面、查阅资料更高效的学生"。

优点 * 信息丰富 能够在生成答案时,利用外部数据库或文档,确保模型提供的信息更准确、更有针对性。 * 动态更新 模型可以通过检索最新的资料来增强回答,适应快速变化的环境。 * 解决模型过时问题 当数据更新或领域知识不断变化时,RAG能帮助模型获取最新信息,而不需要重新训练整个模型
缺点 * 依赖外部数据源 如果外部数据源的质量不高或无法获取,模型的输出质量会受到影响。 * 增加计算开销 每次生成回答时需要进行检索,可能导致延迟增加,尤其是在大规模的数据库检索时。
适用条件 * 需要实时更新信息 如果模型应用场景需要实时获取最新信息,比如金融分析、新闻推荐、医疗诊断等,RAG是一个很好的选择。 * 复杂任务 需要结合多种有针对性来源的信息来生成答案时,RAG能够提供更具综合性的解决方案。
典型案例 * 智能客服 * 大模型联网搜索回答

微调(Fine-Tuning)

让学生精进技能, 闻道有先后,术业有专攻, 青出于蓝而胜于蓝

概念:它是在一个已经学习过大量基础知识的"学生"上,通过专项训练,让其在某些特定任务上表现得更好。可以看作是对原始模型进行定制,使其更适应具体任务。

优点 * 针对性强 通过微调,可以让模型在某个特定领域(如法律文书分析、医学影像识别、写公司的代码、回答特定问题)上表现得更优秀。 * 快速适应特定任务 只需要少量的训练数据,就能使模型快速适应新的领域或任务。 * 资源节约 不需要从头训练模型,节省了大量的计算资源和时间。
缺点 * 过拟合风险 如果微调数据量不足,容易导致模型在特定任务上过拟合,影响泛化能力。 * 依赖标注数据 微调仍然需要领域内的标注数据,尤其是在一些新领域或小众领域。
适用条件 * 特定领域应用 当模型已经具备一定基础的知识(例如通用语言模型),但需要在特定领域(如法律、医疗)提高性能时,微调是最有效的策略。 * 任务复杂度适中 微调对于特定任务的表现提升非常显著,但如果任务本身需要极大的多样性或动态调整,可能需要结合其他方法。
典型案例 * 字节跳动的飞书智能客服 * 华为云的ModelArts * 腾讯云AI开放平台 * 写我们公司的SQL代码

选型参考

蒸馏 如果目标是快速推出产品,且应用场景对模型体积和响应速度有严格要求(例如移动端应用、边缘计算设备等),那么采用蒸馏可能是最优选择。 通过蒸馏,可以减小模型的体积,加快推向市场的速度,同时保证一定的精度。
RAG 如果产品需要处理的是大量不确定、动态的信息,并且希望保持生成结果的准确性和时效性(例如智能客服、金融咨询等),那么RAG将会非常适用。 它能够实时获取外部信息并结合生成高质量的答案,适合数据流动快速、知识更新频繁的场景。
微调 如果已经拥有一个基础模型,且希望让其在某个特定领域(如医疗、法律、写SQL等)表现更好,能够提高精准度和用户体验,那么微调是最佳选择。 通过微调,模型能够适应特定领域的需求,提高商业化应用中的性能和可用性。

微调模型LoRA极简入门

LoRA是什么

LORA (Low-Rank Adaptation) 微调是一种针对大规模预训练模型的优化技术,用于在较少计算资源和数据的情况下,对这些模型进行有效微调。

LORA通过引入低秩矩阵来减少模型参数的更新量,进而显著降低训练的计算开销,同时保持微调的性能。由于LLM参数量巨大,直接微调耗费大量资源,LORA的做法是冻结模型的绝大部分参数,只更新很小一部分参数。这就像修车时不需要重造整辆车,而是只修理一些特定的部件。

矩阵的秩是指矩阵中线性无关行或列的最大数量,低秩矩阵表示矩阵的秩较低。

这里的alpha/r可以看成是学习率;

全参数训练和LoRA的对比

在每个层里头应用LoRA, 从而极大减小参数量

这里是其中一个层的示例

QLoRA的极简入门

LoRa的使用小技巧

  • 进行LoRA高效的模型微调,重点是保持参数尺寸最小化。
  • 使用PEFT库来实现LORA,避免复杂的编码需求。
  • 将LORA适应扩展到所有线性层,增强整体模型的能力。
  • 保持偏置层归一化可训练,因为它们对模型的适应性至关重要,并且不需要低秩适应。
  • 应用量化低秩适应 (QLORA)以节省GPU显存并训练模型,从而能够训练更大的模型。

最后

为什么要学AI大模型

当下,⼈⼯智能市场迎来了爆发期,并逐渐进⼊以⼈⼯通⽤智能(AGI)为主导的新时代。企业纷纷官宣“ AI+ ”战略,为新兴技术⼈才创造丰富的就业机会,⼈才缺⼝将达 400 万!

DeepSeek问世以来,生成式AI和大模型技术爆发式增长,让很多岗位重新成了炙手可热的新星,岗位薪资远超很多后端岗位,在程序员中稳居前列。

在这里插入图片描述

与此同时AI与各行各业深度融合,飞速发展,成为炙手可热的新风口,企业非常需要了解AI、懂AI、会用AI的员工,纷纷开出高薪招聘AI大模型相关岗位。
在这里插入图片描述
最近很多程序员朋友都已经学习或者准备学习 AI 大模型,后台也经常会有小伙伴咨询学习路线和学习资料,我特别拜托北京清华大学学士和美国加州理工学院博士学位的鲁为民老师给大家这里给大家准备了一份涵盖了AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频 全系列的学习资料,这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

AI大模型系统学习路线

在面对AI大模型开发领域的复杂与深入,精准学习显得尤为重要。一份系统的技术路线图,不仅能够帮助开发者清晰地了解从入门到精通所需掌握的知识点,还能提供一条高效、有序的学习路径。

img

但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,找到高质量的学习资源,不浪费时间、不走弯路,又是重中之重。

AI大模型入门到实战的视频教程+项目包

看视频学习是一种高效、直观、灵活且富有吸引力的学习方式,可以更直观地展示过程,能有效提升学习兴趣和理解力,是现在获取知识的重要途径

在这里插入图片描述
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

海量AI大模型必读的经典书籍(PDF)

阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。
在这里插入图片描述

600+AI大模型报告(实时更新)

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
在这里插入图片描述

AI大模型面试真题+答案解析

我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下
在这里插入图片描述

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

Logo

更多推荐