从 LLM 到 Agent Skill:AI 核心概念底层逻辑全解析
本文系统梳理了AI领域的核心概念体系,包括LLM(大语言模型)、Token(令牌)、Context(上下文)、Prompt(提示词)等基础组件,以及Agent(智能体)、Tool(工具)、MCP(模型上下文协议)等高级功能模块。文章详细解析了每个概念的定义、技术原理和应用场景,并构建了从底层模型到上层应用的完整架构图。重点阐述了Prompt工程的分层设计、Agent的自主执行能力、以及MCP协议在
一、概览
本文章是 AI 核心概念大串联,系统性地讲解以下关键概念及其相互关系:
LLM → Token → Context → Context Window → Prompt → User Prompt → System Prompt
→ Tool → MCP → Agent → Agent Skill
二、核心概念详解
2.1 LLM(大语言模型)
定义:Large Language Model,大语言模型是基于 Transformer 架构的深度学习模型,通过海量参数(如 GPT-3 有 1750 亿参数)构建高维空间,本质上是对人类文明数据的非线性压缩。
核心特性:
- 高维压缩的信息蒸馏器:通过自注意力机制对文本的潜在关系进行蒸馏
- 概率采样机制:知识检索变为概率采样而非精确查询
- 下一个词预测:本质是根据输入预测最可能的下一个词
通俗理解:LLM 是 AI 的"大脑",负责思考、理解和生成内容。
2.2 Token(令牌)
定义:Token 是大模型处理文本的最小单位,可以是一个字、一个词或一个子词片段。
关键知识点:
- 文字压缩术:Token 是大模型背后的"文字压缩术"
- 计费单位:API 调用按 Token 数量计费
- 上下文限制:模型的 Context Window 以 Token 为单位计算
示例:
- “你好世界” 可能被分成 [“你好”, “世界”] 两个 Token
- 英文单词根据频率可能被整体或拆分编码
2.3 Context(上下文)
定义:Context 是模型在处理当前输入时能够"看到"的所有信息,包括历史对话、系统指令、参考资料等。
技术原理:
- KV 缓存机制:模型通过 Key-Value 向量存储对话历史
- 注意力权重分配:根据相关性动态调整历史信息权重
分级存储策略:
| 数据类型 | 存储方式 | 说明 |
|---|---|---|
| 热数据 | 完整保留 | 最近 3 轮对话 |
| 温数据 | 向量化压缩 | 关键实体信息 |
| 冷数据 | 摘要存储 | 历史背景信息 |
2.4 Context Window(上下文窗口)
定义:模型一次能够处理的最大 Token 数量限制。
管理策略:
class ContextWindow:
def __init__(self, max_tokens=8000):
self.buffer = []
self.max_tokens = max_tokens
def update(self, new_input):
# 先进先出淘汰机制
while self._calc_tokens() + len(new_input) > self.max_tokens:
self.buffer.pop(0)
self.buffer.append(new_input)
常见模型上下文长度:
- GPT-3.5: 4K / 16K tokens
- GPT-4: 8K / 32K tokens
- Claude 3: 200K tokens
2.5 Prompt(提示词)
定义:Prompt 是给大模型的输入指令,决定了模型的输出质量。
2.5.1 标准 Prompt 架构(四层模型)
| 层级 | 作用 | 示例 |
|---|---|---|
| 角色定义层 | 设定模型身份 | “你是一位资深 Python 工程师” |
| 任务描述层 | 明确目标 | “开发 Flask RESTful API” |
| 约束条件层 | 格式/长度/风格限制 | “使用 OpenAPI 3.0 规范” |
| 示例参考层 | 提供输入-输出样本 | 给出 Swagger 文档样例 |
2.5.2 Prompt 的两大类型
System Prompt(系统提示词):
- 定义 AI 的角色、行为规则和全局约束
- 在对话开始前设定,影响整个会话
- 示例:“你是一个专业的代码审查助手,专注于发现潜在的性能问题”
User Prompt(用户提示词):
- 用户的具体请求或问题
- 每次对话的输入内容
- 示例:“请帮我检查这段 Python 代码的性能问题”
2.6 Tool(工具)
定义:Tool 是 AI Agent 用来与外部世界交互的函数或接口,让模型能够执行实际操作。
常见工具类型:
- 文件操作(读取、写入、搜索)
- 网络请求(API 调用、网页抓取)
- 代码执行(运行 Python、Shell 命令)
- 数据库查询(SQL 执行)
工作原理:
- 将工具功能说明和参数格式写入 System Prompt
- 模型根据任务需求决定调用哪个工具
- Agent 解析模型输出,执行实际工具调用
- 将工具执行结果返回给模型继续处理
2.7 MCP(Model Context Protocol)
定义:MCP 是 Anthropic 推出的模型上下文协议,是连接 AI 与外部系统的标准化接口。
核心作用:
- 标准化工具描述格式
- 统一工具调用协议
- 解决"自然语言写工具说明书"的不稳定性问题
MCP 与 Function Calling 的关系:
- MCP 规范 Agent ↔ 工具服务 之间的通信
- Function Calling 规范 Agent ↔ 大模型 之间的通信
- 两者可以配合使用,也可以独立使用
MCP 的工作流程:
用户请求 → Agent → 大模型决策 → MCP Client → MCP Server → 工具执行 → 结果返回
2.8 Agent(智能体)
定义:Agent 是一种"自主执行任务"的工作模式,能够拿到目标后自主拆解步骤、调用工具、推进到交付。
Agent 的核心能力:
- 任务拆解:将复杂目标分解为可执行的子任务
- 工具选择:根据需求选择合适的工具
- 执行循环:反复执行-观察-调整直到完成
- 状态管理:维护任务执行的上下文状态
Agent vs LLM:
| 对比项 | LLM | Agent |
|---|---|---|
| 核心功能 | 思考与生成 | 执行与交付 |
| 交互方式 | 问答模式 | 自主推进 |
| 工具使用 | 不能直接调用 | 可以调用外部工具 |
| 任务完成 | 提供建议 | 直接产出结果 |
2.9 Agent Skill(智能体技能)
定义:Skill 是可复用的经验手册,将特定领域的最佳实践、SOP、方法论沉淀为结构化模板。
Skill 的本质:
- 目录化的可复用 Prompt
- 标准化的工作流程
- 领域知识的封装
Skill 与 MCP 的区别:
| 特性 | MCP | Skill |
|---|---|---|
| 设计哲学 | 严密协议约束 | 清晰说明书即可 |
| 信任模型 | 不太信任模型 | 更信任模型能力 |
| 复杂度 | 协议层较重 | 极简自然语言 |
| 使用方式 | 标准化接口调用 | 按说明书执行 |
典型 Skill 结构:
my-skill/
├── skill.md # 说明书 + 元数据(必须)
├── script.py # 辅助脚本(可选)
└── 其他资源... # 数据文件、模板等
三、概念之间的关系
3.1 整体架构图
┌─────────────────────────────────────────────────────────────────┐
│ 用户交互层 │
│ (User Prompt / A2UI) │
└───────────────────────┬─────────────────────────────────────────┘
│
▼
┌─────────────────────────────────────────────────────────────────┐
│ Agent 层 │
│ ┌─────────────┐ ┌─────────────┐ ┌─────────────┐ │
│ │ 任务拆解 │ → │ 工具选择 │ → │ 执行循环 │ │
│ └─────────────┘ └─────────────┘ └─────────────┘ │
└───────────────────────┬─────────────────────────────────────────┘
│
┌───────────────┼───────────────┐
▼ ▼ ▼
┌─────────────┐ ┌─────────────┐ ┌─────────────┐
│ Skill │ │ MCP │ │ Tool │
│ (经验手册) │ │ (工具接口) │ │ (具体工具) │
└──────┬──────┘ └──────┬──────┘ └──────┬──────┘
│ │ │
└────────────────┴────────────────┘
│
▼
┌─────────────────────────────────────────────────────────────────┐
│ LLM 层 │
│ ┌─────────────────────────────────────────────────────────┐ │
│ │ System Prompt + Context + Context Window + Token │ │
│ └─────────────────────────────────────────────────────────┘ │
└─────────────────────────────────────────────────────────────────┘
3.2 类比理解
用"一个人完成工作"来类比:
| 概念 | 类比 | 作用 |
|---|---|---|
| LLM | 大脑 | 负责思考、理解、决策 |
| Token | 思维单元 | 处理信息的基本单位 |
| Context | 记忆 | 当前能回忆起的所有信息 |
| Context Window | 记忆容量 | 一次能记住的最大信息量 |
| Prompt | 指令/对话 | 告诉大脑要做什么 |
| Tool | 手脚/工具 | 实际执行操作的媒介 |
| MCP | 工具箱接口 | 标准化连接各种工具 |
| Agent | 工作模式 | 自主完成任务的逻辑 |
| Skill | 经验手册 | 沉淀的最佳实践方法 |
四、实战应用建议
4.1 什么时候用什么?
| 场景 | 推荐方案 | 原因 |
|---|---|---|
| 简单问答 | Prompt | 直接高效 |
| 需要外部数据 | MCP + Tool | 标准化接入 |
| 复杂多步骤任务 | Agent | 自主推进执行 |
| 重复性工作流 | Skill | 沉淀复用经验 |
| 企业级应用 | 全套组合 | 完整解决方案 |
4.2 学习路径建议
第一阶段:Prompt 工程
↓
第二阶段:理解 LLM 原理(Token、Context)
↓
第三阶段:Tool 使用与 Function Calling
↓
第四阶段:MCP 协议与工具集成
↓
第五阶段:Agent 构建与流程设计
↓
第六阶段:Skill 开发与经验沉淀
4.3 关键要点总结
- Prompt 没有死:它只是从"台前咒语"变成"系统内部引擎"
- Agent 不是软件:而是一种"自主执行"的工作模式
- Skill 不是 Prompt:而是可复用的结构化经验
- MCP 不是唯一:它是工具连接的标准之一,但不是唯一选择
- 组合产生价值:真正强大的是这些概念的组合应用
五、相关资源推荐
- 一个故事看懂 LLM/Agent/Skills/Prompt/MCP 之间的关系
- Agent、MCP 和 Skills:大模型时代的"工具栈"
- Prompt、Skill、Agent、MCP 到底啥区别?
六、总结
本文章系统性地梳理了 AI 领域的核心概念,从底层的 LLM、Token、Context,到上层的 Prompt、Tool、MCP、Agent、Skill,帮助读者建立起完整的知识体系。
核心收获:
- 理解了 AI 系统的分层架构
- 掌握了各概念的定义和作用
- 明白了概念之间的相互关系
- 获得了实际应用的指导建议
这些概念不是孤立存在的,而是构成了一个完整的 AI 应用生态系统。只有理解它们的底层逻辑,才能在实际工作中灵活运用,构建出真正强大的 AI 应用。
更多推荐




所有评论(0)