知识蒸馏(Knowledge Distillation, KD)是一种非常流行的技术,用于让大型深度学习模型(通常被称为“教师模型”)的能力,传递到一个较小的模型(称为“学生模型”)中。这种方法的核心目标是让学生模型像教师模型一样,能够做出相似的判断,但它的计算量要小得多,因此能够更快、更高效地运行。

可以把这个过程想象成“学生向老师请教”的场景。教师模型通过训练得到非常强大的能力,而学生模型虽然小,但通过从教师模型那里学习,可以获得接近的效果。这样做的好处就是,学生模型不仅能够在计算上更加节省资源,还能保留大模型的一些优势,适应一些资源受限的设备和场景。

知识蒸馏可以分为两种方式:

  1. 白盒知识蒸馏:这种方式要求学生模型能够访问教师模型的内部结构,比如参数和梯度。这种方式的优势是,学生模型可以更深入地理解教师模型的学习过程,从而更高效地进行知识迁移。
  2. 黑盒知识蒸馏:在这种方式下,学生模型无法直接看到教师模型的内部结构,而是通过教师模型的输入输出对其进行学习。即使不能了解教师模型的“心思”,学生模型也可以通过观察输入和输出之间的关系,来模仿教师模型的表现。

通过这种方式,知识蒸馏能够让学生模型在不需要大量计算资源的情况下,尽可能地复现教师模型的强大能力。这使得它在许多实际应用中非常有用,尤其是在移动设备或嵌入式系统中,资源有限但又需要较强模型性能的场景。

  1. 白盒知识蒸馏

白盒知识蒸馏(White-box Knowledge Distillation)是一种通过深入了解教师模型(即大模型)内部细节来指导学生模型学习的方法。在这种方法中,学生模型可以访问教师模型的各种信息,包括其内部参数和梯度,因此可以采取多种策略来优化学生模型的学习过程。

在知识蒸馏的标准方法中,目标是通过最小化教师模型分布 pT(y∣x)和学生模型分布 pS(y∣x)之间的Kullback-Leibler散度(KLD),即 KL[pT∥pS],来促使学生模型的输出分布尽可能覆盖教师模型的高概率区域。这意味着,学生模型在预测时应该尽量模仿教师模型的行为,尤其是在高概率区域。

对于像文本分类任务这样输出空间较小的任务,最小化正向KLD是有效的,因为在这种情况下,教师和学生的高概率区域往往是有限的。因此,学生模型可以有效学习到教师模型的高概率区域。

然而,在开放式文本生成任务中(如大语言模型的应用),输出空间更加复杂,教师模型的高概率区域往往比学生模型能够覆盖的区域要多得多。在这种情况下,最小化正向KLD可能导致学生模型在其无法有效学习的区域赋予过高的概率,从而生成一些教师模型几乎不会生成的内容。这种现象被称为空白区域问题(void region)。

为了解决这个问题,MiniLLM提出了一种改进的方法,即将正向KLD替换为反向KLD。这种方法能够引导学生模型关注教师模型的主要高概率区域,同时避免学生模型在教师模型的空白区域中赋予过高的概率。这在大语言模型的文本生成任务中尤为重要,能够确保生成的内容更准确且更符合实际应用的需求。

在优化反向KLD时,MiniLLM使用了策略梯度法(Policy Gradient)来推导目标函数的梯度,并通过以下几种方式进一步稳定和加速训练:

  • 单步分解:降低方差
  • 教师混合采样:缓解奖励操控问题
  • 长度归一化:消除长度偏差

此外,on-policy KD(同策略知识蒸馏)是一种将知识蒸馏与模仿学习相结合的方法。在这种方法中,学生模型基于教师模型的输出分布生成自己的输出序列,并针对其自生成输出中的错误部分获得特定的反馈。这种反馈循环类似于强化学习中的奖励反馈,有助于减少训练和推理分布的不匹配。

为了进一步优化蒸馏过程,Generalized KD (GKD) 提出了更加通用的方案。GKD允许根据具体任务灵活选择优化目标和数据来源,结合了固定数据集(例如教师生成的序列或带标签的真实数据)与学生模型生成的同策略数据,以实现更高效的学习。

此外,TED提出了一种任务感知的逐层知识蒸馏方法,它通过在每一层添加特定任务的过滤器来对学生模型进行指导。每个过滤器先在教师模型上进行训练,然后冻结教师模型的过滤器,指导学生模型对齐输出特征。

MiniMoE采用了专家混合(Mixture-of-Experts, MoE)模型作为学生模型,进一步缩小学生模型和教师模型之间的能力差距。

KPTD则提出了一种通过将实体定义的知识转移到大语言模型的参数中的方法。这种方法基于实体定义生成转移集,并通过这些定义指导学生模型的学习,使其输出分布更接近教师模型。

这种类型的知识蒸馏方法,不仅通过减少学生模型的计算负担,还能够提高学生模型在复杂任务中的表现,尤其在需要高效和高可靠性的大语言模型生成任务中具有重要应用价值。

  1. 黑盒知识蒸馏

黑盒知识蒸馏(Black-box Knowledge Distillation)是一种在无法访问大模型内部细节的情况下,通过教师模型的输出(例如分类概率或生成文本)来指导学生模型的学习的方法。与白盒知识蒸馏不同,黑盒方法不要求学生模型直接接触教师模型的内部参数,而是通过模仿教师模型的输出分布,来逼近其行为。这意味着,学生模型可以通过学习教师模型生成的答案(如分类结果或文本生成),从而获得类似的能力,达到性能压缩和迁移的效果。

关键目标:

黑盒知识蒸馏的核心目标是在没有大模型内部参数的帮助下,学生模型能通过模仿教师模型的输出,学习如何完成特定任务。例如,学生模型可以在大语言模型的指导下,学习如何更好地进行上下文学习(ICL)、思维链推理(CoT)或指令跟随(IF)等任务。

例如:TAPIR框架

TAPIR(Task-Aware Curriculum Planning for Instruction Refinement)是一种黑盒蒸馏的框架,它通过精心设计的多任务课程规划来提升学生模型的能力。TAPIR框架的主要思想是,从教师模型中选取那些学生模型较难理解的指令,并通过难度重采样的方式,提升学生模型对这些复杂任务的学习效果。

具体步骤包括:

  1. 初始化学生模型:从一个预训练的学生模型开始。
  2. 难度筛选:利用开源指令数据集(如 Alpaca 数据集),根据学生模型难以拟合的指令挑选出适合的种子数据集。
  3. 多任务规划:根据任务的难度和类型,使用教师模型(如 ChatGPT)生成更多类似难度的指令-响应对,以提升推理类任务的学习效果。
  4. 回答风格增强:通过调整教师模型的回答风格(如思维链或代码注释)来帮助学生模型更好地理解任务。
  5. 多轮优化:通过反馈循环,不断评估学生模型的输出,并用裁判模型对其质量进行打分,逐步引导学生模型提高。

在TAPIR框架中,模型拟合难度(MFD)指标被用来衡量学生模型对特定指令的学习能力。MFD分数是通过评估学生模型生成的答案与教师模型生成的答案之间的差异来计算的。只有那些MFD分数较高的样本对,才会被用于进一步的训练,帮助学生模型逐步提升其任务能力。

Distilling Step-by-Step

另一种方法是Distilling Step-by-Step,这种方法包括两个主要步骤:

  1. 生成标签和推理依据:教师模型基于无标签数据集生成预测标签,并且还生成推理依据,解释为什么这个标签是正确的。推理依据是对标签背后原因的自然语言解释,帮助学生理解如何从输入推导出输出。
  2. 学生模型训练:学生模型不仅仅学习任务标签,还学习推理依据。这使得学生模型能够理解背后的逻辑,并能更好地处理复杂任务。

这种方法通过提供更多的上下文和解释,帮助学生模型不仅学习到正确的答案,还能理解为什么这个答案是对的,从而提升其泛化能力。

总结

知识蒸馏通过两种方式:白盒和黑盒。将教师模型的知识转移给学生模型。白盒知识蒸馏依赖于直接访问教师模型的内部细节,适合用于模型结构优化;黑盒知识蒸馏则通过模仿教师模型的输出,引导学生模型学习,适用于无法访问教师模型内部信息的场景。无论哪种方式,知识蒸馏都能够有效地压缩模型,同时保持较高的性能,在许多应用中具有重要价值,尤其是在大语言模型和复杂任务处理方面。

想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年 AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享

👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势

想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI

1. 100+本大模型方向电子书

在这里插入图片描述

2. 26 份行业研究报告:覆盖多领域实践与趋势

报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:

  • 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
  • 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
  • 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
  • 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。

3. 600+套技术大会 PPT:听行业大咖讲实战

PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

在这里插入图片描述

  • 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
  • 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
  • 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
  • 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。

二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走

想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位

面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析

2. 102 道 AI 大模型真题:直击大模型核心考点

针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题

专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:


三、路线必明: AI 大模型学习路线图,1 张图理清核心内容

刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

在这里插入图片描述

路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。

img

L1阶段:启航篇丨极速破界AI新时代

L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

img

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

img

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

img

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

img

L5阶段:专题集丨特训篇 【录播课】

img
四、资料领取:全套内容免费抱走,学 AI 不用再找第二份

不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:

👇👇扫码免费领取全部内容👇👇

2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!

Logo

更多推荐