一文搞懂大模型推理:Prefill与Decode的分工、原理与性能优化!
大语言模型推理分为Prefill和Decode两个阶段。Prefill阶段并行处理输入prompt,通过自注意力机制和KV Cache构建理解基础,是计算密集型阶段;Decode阶段串行生成输出,复用KV Cache逐步预测下一个token,是内存带宽密集型阶段。这种分工设计基于输入输出特性的根本差异,通过针对性优化各自性能瓶颈,实现了推理效率的最大化。
一句话解释: Prefill 和 Decode 的分工

大语言模型生成文本的过程本质上是给定上下文,逐词预测下一个词。但在实现上,这个过程被明确地分成两个阶段:

为什么不能用一个阶段做完?
因为输入和输出的计算特性完全不同
-
输入 prompt 是完整的、一次性提供的,适合并行计算。
-
输出 token 是未知的,只能一个一个推理,必须串行。
这种“数据形态差异"导致我们不得不把它们拆成两个阶段,并用不同方式处理。
Prefill: 模型如何“理解"你输入的 prompt?
什么是 prefill?
Prefill阶段是语言模型推理中的第一个步骤,它负责处理你输入的所有上下文内容(prompt)为后续生成打下基础。
比如你问模型一句话:
“请解释一下 Transformer 的原理。”
这句话会被 tokenizer 编码为一串 token,比如[“请”,“解释”,“一下”,“Trans”,“##former”,“的”,“原理”,“。”]。
然后这些 token 会进入 Transformer 模型进行前向传播。重点来了!!
Prefill 中模型内部到底发生了什么?
Step1: Embedding 输入
每个 token 会映射成一个向量(embedding),形状为[batch_size,seq_len,hidden_dim]
Step2: Self-Attention 的全量计算
输入是完整的上下文,因此模型会执行一次完整的 masked self-attention。
对于位置 i 的 token,会计算它和前面所有位置的注意力(包括自己):

Step 3: 生成 KV Cache
每层 Transformer 都会把每个token 的 K 和 V 存下来,形成 KV Cache:

这个 Cache 会在 decode 阶段被反复使用,避免重复计算。
为什么 prefill 的计算成本那么高?让我们做个简单对比:

Prefill 最大的特点是:
需要“每个 token 与前面所有 token 做 attention”
不能复用 KV Cache(因为是第一次建立)
Prefill 是典型的 compute-bound 阶段:
大量矩阵乘法和 attention 计算主导性能瓶颈
GPU 的算力利用率很高,但内存带宽压力较小
因此如果你的 prompt 很长,prefill阶段就会非常耗时。很多模型响应慢,不是生成慢,而是 prompt 处理慢。
Decode: token-by-token 地生成输出
在 prefill 之后,模型已经建立了一个完整的 KV Cache,可以开始逐步生成 token。每次 decode 只需要:
把最新生成的 token 输入进去
拿之前的 KV Cache 来做 attention
预测下一个 token
Decode 是典型的 memory-bound 阶段:
每生成一个 token,都需要访问所有历史的 KV Cache(多层、多头)
计算量小,但内存带宽压力大
特别在 batch size 小、生成序列长的场景,GPU 利用率会很低
拆分 Prefill 和 Decode 是“推理效率最大化”的关键
我们回到标题的问题:
为什么 LLM 推理要分成 Prefill 和 Decode?

因为这两个阶段的输入特性和计算方式本质不同:

因此,拆成两个阶段是为了精准优化每一步的计算路径,比如:
Prefill 可用 FlashAttention 等并行技术提升性能
Decode 可用KV Cache、speculative decoding 等加速生成
Prefill vs Decode 的性能瓶颈差异
在推理过程中,Prefill 和 Decode 阶段不仅在结构上不同,在性能瓶颈上也大相径庭:


为什么 Decode 会是 Bandwidth-bound?
在 Decode 阶段,虽然只生成一个新 token,但为了计算它的注意力得分,需要加载全部历史 token 的 KV Cache。这意味着:
每层都要从 GPU 内存中读取大量数据
实际计算(比如 Q x K^T)规模却很小
导致 GPU 大量时间都在等内存传输,而不是在计算。
这就是典型的 Bandwidth-bound 场景 —— 内存带宽成为限制性能的关键因素,而不是算力本身。
那 Memory-bound 又是什么?
容易混淆的是 “memory-bound”,但它和 bandwidth-bound 有所不同:

如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

2025年大模型应用呈现爆发式增长,根据工信部最新数据:
国内大模型相关岗位缺口达47万
初级工程师平均薪资28K(数据来源:BOSS直聘报告)
70%企业存在"能用模型不会调优"的痛点
真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!
02.大模型 AI 学习和面试资料
1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工
📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)






第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多推荐


所有评论(0)