简介

本文深入探讨了大模型强化学习中的"熵"机制,从微观的Token熵和宏观的策略熵两个维度解析RL训练原理。文章揭示了RL训练中"熵崩溃"现象的危害及其成因,并提出"二八定律"——仅20%的高熵token决定推理性能。研究表明,合理控制熵的平衡,避免过早丧失探索能力,是优化大模型推理性能的关键。这对理解RL为何有效及如何提升模型具有重要指导意义。

前两篇文章我们讲了 KL 散度和 GRPO,这篇文章讲一个最近(并非最近,鸽了一段时间了)比较火的概念——熵 (Entropy)。

很多同学只知道 RL 能 work,但为什么 work,模型在 RL 过程中到底学到了什么,似乎总隔着一层纱。

最近的两篇论文《The Entropy Mechanism of Reinforcement Learning for Reasoning Language Models》和《Beyond the 80/20 Rule: High-Entropy Minority Tokens Drive Effective Reinforcement Learning for LLM Reasoning》从“熵”这个统一的视角,探索了 RL 的内在机制。

https://arxiv.org/abs/2505.22617

这篇文章的目标,就是用大白话和必要的公式,讲一下“熵”到“RL”的探索之路,感受一下 RL 在确定性和不确定性之间的极限拉扯。

一、熵、交叉熵、KL 散度“三位一体”

1. 信息熵(Information Entropy):衡量“不确定性”的标尺

信息论里的熵,概念其实非常直观。它衡量的是一个系统或一个概率分布的不确定性或者说“惊奇程度”。

举个最经典的例子:扔硬币。

场景 A:一枚极不均匀的硬币,99% 的概率是正面,1% 是反面。你来猜结果,基本无脑猜正面就行。结果揭晓时,你基本不会感到“惊奇”,因为结果非常“确定”。这个系统的不确定性很低,熵就低。

场景 B:一枚完美的均匀硬币,50% 正面,50% 反面。你猜正面还是反面?完全是蒙。结果揭晓时,你会感到更“惊奇”,因为结果非常“不确定”。这个系统的不确定性很高,****熵就高。

信息论之父香农(Shannon)用一个优美的公式量化了它。对于一个离散变量X,其概率分布为 P(x),那么它的信息熵 H(P)定义为:

对于 LLM 来说,在生成第 t 个词时,它实际上是面对一个巨大的概率分布——词汇表里每个词成为下一个词的概率。

如果模型对下一个词非常确定(例如,“一言为定,驷马难……”后面几乎必然是“追”),那么这个概率分布的熵就很低。

如果模型很纠结(例如,一个故事的开头),多个词都有可能,那么熵就很高。

2. 交叉熵(Cross-Entropy)与 KL散度(KL Divergence):从“理想”到“现实”的代价

既然熵衡量了不确定性,那跟 LLM 的训练有什么关系?

在 LLM 训练中,我们有一个“真实世界的分布”(用 P 表示),也就是人类语言中,给定上文后,下一个词的真实概率分布。

同时,我们还有一个“我们的模型通过训练拟合出来的分布”(用 Q 表示),也就是 LLM 自己预测的、对下一个词的概率分布。

我们的目标,就是让模型 Q 尽可能地去逼近真实世界 P。

怎么衡量这个“逼近”程度呢?

**交叉熵(Cross-Entropy)就登场了。它衡量的是,当我们用模型的“**有偏认知”(Q)去预测和编码“客观事实”(P)时,所需要的平均信息量。

它的公式是:

可以看到它和熵的公式很像,只是 log 里的概率从 P(x)换成了 Q(x)。

然而由于我们的模型 Q 总是不完美的,所以用它来编码 P 的代价 H(P,Q),必然会比用 P 自己最优的编码代价 H(P)要高。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

在这里插入图片描述

多出来的这部分代价就是 KL 散度(Kullback-Leibler Divergence)。它精确地量化了两个概率分布之间的“距离”(虽然不是严格意义上的数学距离)。

KL 散度的公式如下:

我们可以发现交叉熵,信息熵和 KL 散度之间存在以下关系:

在训练 LLM 时,我们通常使用最小化交叉熵损失函数作为训练目标。

但是我们接触到的真实数据(各种训练语料)是固定的,所以真实世界的信息熵 H(P)是一个我们无法改变的常数

因此,我们的优化目标就等价于**最小化模型预测 Q 和真实数据 P 之间的 KL 散度**。

这就是交叉熵损失函数在整个深度学习领域如此流行的根本原因。它让我们有了一个明确的优化目标:让模型拟合的分布无限接近于真实分布。

二、微观的“Token 熵”与宏观的“策略熵”

有了上述基础,我们终于可以来看这两篇论文了。一个非常有意思的地方是,这两篇论文虽然都在谈论熵,但它们观察熵的尺度是不同的。

《The Entropy Mechanism》关注的是宏观的、全局的“策略熵” (Policy Entropy)。

它关心的是模型在 RL 训练过程中的整体健康状况,特别是策略熵是否会过早“崩溃”。

《Beyond the 80/20 Rule》关注的是微观的、局部的“Token 级熵”(Token-level Entropy)。它把熵当作诊断工具,去寻找推理链条中那些最关键的“分叉路口”。

(1)RL 中的“熵崩溃”现象

《The Entropy Mechanism》这篇论文首先抛出了一个在 RL 训练 LLM(特别是推理任务)时普遍存在的痛点:熵崩溃(Entropy Collapse)。

在训练早期,模型的熵会急剧下降,说明模型性能的提升是通过牺牲熵换来的

模型在 RL 训练的早期阶段,策略的熵会急剧下降。模型迅速地对某些特定的答案或路径变得“过度自信”,其行为多样性(探索能力)急剧丧失。

这种“熵崩溃”的直接后果就是性能饱和。模型因为失去了探索能力,早早地就锁死在了一个次优解上,无论你再怎么加大训练,奖励(Reward)都很难再提升。

很多模型都表现都符合这个公式

那么,为什么会发生“熵崩溃”?论文从数学上给出了一个解释。作者推导出,策略熵的变化与一个关键因素——动作概率和优势函数(Advantage)的协方差——有关(反比关系)。

原文中的公式比较复杂,感兴趣的读者可以自行拜读。这里提供一个通俗易懂的说法(在数学上不一定严谨)。

简单来说:

  • 当模型选择一个高概率的动作(token),而这个动作又带来了高奖励(高Advantage)时,强化学习算法会大力强化这个选择。
  • 这种“强强联合”的更新,会导致这个高概率动作的概率变得更高,其他动作的概率被压制,从而使得整个概率分布的熵急剧下降。

在 RL 训练初期,模型很容易找到一些“低垂的果实”,即一些简单、高回报的捷径。

于是模型疯狂地在这些路径上进行自我强化,导致协方差持续为正,熵一路狂跌,最终“熵崩溃”,探索能力耗尽。

为了解决这个问题,论文提出了 Clip-Cov 和 KL-Cov 等方法,核心思想就是限制那些高协方差 token 的更新幅度。

翻译成大白话就是:“我知道你这个选择又自信又正确,但你先别太激动,悠着点更新,给别的可能性留点机会。”

Clip-Cov:

随机选择一小部分具有正协方差的 token,将其梯度分离,阻止其更新。

KL-Cov:

对协方差排名前 k 的 token,增加 KL 散度正则化。

这篇论文从宏观上指出了问题(熵崩溃)并给出了病因(协方差机制),但它留下了一个更深的问题:熵的价值在不同地方是相同的吗?

(2)抓住“关键少数”

80% 的 token 熵都低于 0.672。可以看到低熵 token 基本上都是各种符号,高熵 token 基本上是一些转折词

研究者发现了一个惊人的“二八定律”:

  • 在一个完整的推理链中,大约 80% 的 Token 都是低熵的。这些词通常是模板化的、衔接性的、或者是确定性的计算步骤(比如 1+1 后的 =2)。模型生成这些 token 都时候有很高的置信度。
  • 而只有大约 20% 的 Token 是高熵的。这些词是思维链真正的“分叉路口”(forking tokens)。在这些关键节点上,模型感到不确定,存在多个合理的推理方向。例如,在解一道应用题时,选择先计算哪个中间变量,就是一个典型的高熵决策点。

左图是普通 token 和 forking token。右图是普通 RL 和只训练 forking token 的区别

这篇文章的核心论点是:RL for Reasoning 的有效性,几乎完全来自于对这 20% 高熵“关键少数”的优化。

作者团队做了以下实验:

  • 全量更新:正常的 RL 训练,对所有 token 的梯度都进行更新。
  • 只更新高熵 Token:只计算并更新那 20% 高熵 token 产生的梯度,直接丢弃 80% 低熵 token 的梯度。
  • 只更新低熵 Token:作为对比,只更新 80% 低熵 token 的梯度。

结果如下:

Qwen 系列的结果

作者发现:

  • “只更新高熵 Token” 的策略,其性能与“全量更新”相当,甚至在某些更强的模型上表现更好
  • 而 “只更新低熵 Token” 的策略,性能则出现了断崖式下跌。

这个实验证明了:RL 并不是在机械地加强一整条“正确答案”的路径。它真正的作用,是帮助模型学会在那些充满不确定性的关键决策点,如何做出更优的选择。

那 80% 的低熵部分,模型在 SFT 阶段已经学得很好了,再用 RL 去“用力”,反而是浪费计算资源,甚至可能破坏模型的语言流畅性。

RL 是多样性和准确性,探索能力和基础能力之间的权衡。

RL 期间如果不进行熵的控制,模型会陷入“熵崩溃”,过早丧失探索能力,导致性能无法提升。

三、如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

在这里插入图片描述

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

在这里插入图片描述

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K(数据来源:BOSS直聘报告)

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

02.大模型 AI 学习和面试资料

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

更多推荐