一、概览

本文章是 AI 核心概念大串联,系统性地讲解以下关键概念及其相互关系:

LLM → Token → Context → Context Window → Prompt → User Prompt → System Prompt 
→ Tool → MCP → Agent → Agent Skill

二、核心概念详解

2.1 LLM(大语言模型)

定义:Large Language Model,大语言模型是基于 Transformer 架构的深度学习模型,通过海量参数(如 GPT-3 有 1750 亿参数)构建高维空间,本质上是对人类文明数据的非线性压缩。

核心特性

  • 高维压缩的信息蒸馏器:通过自注意力机制对文本的潜在关系进行蒸馏
  • 概率采样机制:知识检索变为概率采样而非精确查询
  • 下一个词预测:本质是根据输入预测最可能的下一个词

通俗理解:LLM 是 AI 的"大脑",负责思考、理解和生成内容。


2.2 Token(令牌)

定义:Token 是大模型处理文本的最小单位,可以是一个字、一个词或一个子词片段。

关键知识点

  • 文字压缩术:Token 是大模型背后的"文字压缩术"
  • 计费单位:API 调用按 Token 数量计费
  • 上下文限制:模型的 Context Window 以 Token 为单位计算

示例

  • “你好世界” 可能被分成 [“你好”, “世界”] 两个 Token
  • 英文单词根据频率可能被整体或拆分编码

2.3 Context(上下文)

定义:Context 是模型在处理当前输入时能够"看到"的所有信息,包括历史对话、系统指令、参考资料等。

技术原理

  • KV 缓存机制:模型通过 Key-Value 向量存储对话历史
  • 注意力权重分配:根据相关性动态调整历史信息权重

分级存储策略

数据类型 存储方式 说明
热数据 完整保留 最近 3 轮对话
温数据 向量化压缩 关键实体信息
冷数据 摘要存储 历史背景信息

2.4 Context Window(上下文窗口)

定义:模型一次能够处理的最大 Token 数量限制。

管理策略

class ContextWindow:
    def __init__(self, max_tokens=8000):
        self.buffer = []
        self.max_tokens = max_tokens
    
    def update(self, new_input):
        # 先进先出淘汰机制
        while self._calc_tokens() + len(new_input) > self.max_tokens:
            self.buffer.pop(0)
        self.buffer.append(new_input)

常见模型上下文长度

  • GPT-3.5: 4K / 16K tokens
  • GPT-4: 8K / 32K tokens
  • Claude 3: 200K tokens

2.5 Prompt(提示词)

定义:Prompt 是给大模型的输入指令,决定了模型的输出质量。

2.5.1 标准 Prompt 架构(四层模型)

层级 作用 示例
角色定义层 设定模型身份 “你是一位资深 Python 工程师”
任务描述层 明确目标 “开发 Flask RESTful API”
约束条件层 格式/长度/风格限制 “使用 OpenAPI 3.0 规范”
示例参考层 提供输入-输出样本 给出 Swagger 文档样例

2.5.2 Prompt 的两大类型

System Prompt(系统提示词)

  • 定义 AI 的角色、行为规则和全局约束
  • 在对话开始前设定,影响整个会话
  • 示例:“你是一个专业的代码审查助手,专注于发现潜在的性能问题”

User Prompt(用户提示词)

  • 用户的具体请求或问题
  • 每次对话的输入内容
  • 示例:“请帮我检查这段 Python 代码的性能问题”

2.6 Tool(工具)

定义:Tool 是 AI Agent 用来与外部世界交互的函数或接口,让模型能够执行实际操作。

常见工具类型

  • 文件操作(读取、写入、搜索)
  • 网络请求(API 调用、网页抓取)
  • 代码执行(运行 Python、Shell 命令)
  • 数据库查询(SQL 执行)

工作原理

  1. 将工具功能说明和参数格式写入 System Prompt
  2. 模型根据任务需求决定调用哪个工具
  3. Agent 解析模型输出,执行实际工具调用
  4. 将工具执行结果返回给模型继续处理

2.7 MCP(Model Context Protocol)

定义:MCP 是 Anthropic 推出的模型上下文协议,是连接 AI 与外部系统的标准化接口。

核心作用

  • 标准化工具描述格式
  • 统一工具调用协议
  • 解决"自然语言写工具说明书"的不稳定性问题

MCP 与 Function Calling 的关系

  • MCP 规范 Agent ↔ 工具服务 之间的通信
  • Function Calling 规范 Agent ↔ 大模型 之间的通信
  • 两者可以配合使用,也可以独立使用

MCP 的工作流程

用户请求 → Agent → 大模型决策 → MCP Client → MCP Server → 工具执行 → 结果返回

2.8 Agent(智能体)

定义:Agent 是一种"自主执行任务"的工作模式,能够拿到目标后自主拆解步骤、调用工具、推进到交付。

Agent 的核心能力

  1. 任务拆解:将复杂目标分解为可执行的子任务
  2. 工具选择:根据需求选择合适的工具
  3. 执行循环:反复执行-观察-调整直到完成
  4. 状态管理:维护任务执行的上下文状态

Agent vs LLM

对比项 LLM Agent
核心功能 思考与生成 执行与交付
交互方式 问答模式 自主推进
工具使用 不能直接调用 可以调用外部工具
任务完成 提供建议 直接产出结果

2.9 Agent Skill(智能体技能)

定义:Skill 是可复用的经验手册,将特定领域的最佳实践、SOP、方法论沉淀为结构化模板。

Skill 的本质

  • 目录化的可复用 Prompt
  • 标准化的工作流程
  • 领域知识的封装

Skill 与 MCP 的区别

特性 MCP Skill
设计哲学 严密协议约束 清晰说明书即可
信任模型 不太信任模型 更信任模型能力
复杂度 协议层较重 极简自然语言
使用方式 标准化接口调用 按说明书执行

典型 Skill 结构

my-skill/
├── skill.md      # 说明书 + 元数据(必须)
├── script.py     # 辅助脚本(可选)
└── 其他资源...    # 数据文件、模板等

三、概念之间的关系

3.1 整体架构图

┌─────────────────────────────────────────────────────────────────┐
│                         用户交互层                               │
│                    (User Prompt / A2UI)                         │
└───────────────────────┬─────────────────────────────────────────┘
                        │
                        ▼
┌─────────────────────────────────────────────────────────────────┐
│                         Agent 层                                 │
│    ┌─────────────┐    ┌─────────────┐    ┌─────────────┐       │
│    │  任务拆解    │ → │  工具选择    │ → │  执行循环    │       │
│    └─────────────┘    └─────────────┘    └─────────────┘       │
└───────────────────────┬─────────────────────────────────────────┘
                        │
        ┌───────────────┼───────────────┐
        ▼               ▼               ▼
┌─────────────┐  ┌─────────────┐  ┌─────────────┐
│    Skill    │  │    MCP      │  │    Tool     │
│  (经验手册)  │  │  (工具接口)  │  │  (具体工具)  │
└──────┬──────┘  └──────┬──────┘  └──────┬──────┘
       │                │                │
       └────────────────┴────────────────┘
                          │
                          ▼
┌─────────────────────────────────────────────────────────────────┐
│                         LLM 层                                   │
│  ┌─────────────────────────────────────────────────────────┐   │
│  │  System Prompt + Context + Context Window + Token       │   │
│  └─────────────────────────────────────────────────────────┘   │
└─────────────────────────────────────────────────────────────────┘

3.2 类比理解

用"一个人完成工作"来类比:

概念 类比 作用
LLM 大脑 负责思考、理解、决策
Token 思维单元 处理信息的基本单位
Context 记忆 当前能回忆起的所有信息
Context Window 记忆容量 一次能记住的最大信息量
Prompt 指令/对话 告诉大脑要做什么
Tool 手脚/工具 实际执行操作的媒介
MCP 工具箱接口 标准化连接各种工具
Agent 工作模式 自主完成任务的逻辑
Skill 经验手册 沉淀的最佳实践方法

四、实战应用建议

4.1 什么时候用什么?

场景 推荐方案 原因
简单问答 Prompt 直接高效
需要外部数据 MCP + Tool 标准化接入
复杂多步骤任务 Agent 自主推进执行
重复性工作流 Skill 沉淀复用经验
企业级应用 全套组合 完整解决方案

4.2 学习路径建议

第一阶段:Prompt 工程
    ↓
第二阶段:理解 LLM 原理(Token、Context)
    ↓
第三阶段:Tool 使用与 Function Calling
    ↓
第四阶段:MCP 协议与工具集成
    ↓
第五阶段:Agent 构建与流程设计
    ↓
第六阶段:Skill 开发与经验沉淀

4.3 关键要点总结

  1. Prompt 没有死:它只是从"台前咒语"变成"系统内部引擎"
  2. Agent 不是软件:而是一种"自主执行"的工作模式
  3. Skill 不是 Prompt:而是可复用的结构化经验
  4. MCP 不是唯一:它是工具连接的标准之一,但不是唯一选择
  5. 组合产生价值:真正强大的是这些概念的组合应用

五、相关资源推荐


六、总结

本文章系统性地梳理了 AI 领域的核心概念,从底层的 LLM、Token、Context,到上层的 Prompt、Tool、MCP、Agent、Skill,帮助读者建立起完整的知识体系。

核心收获

  1. 理解了 AI 系统的分层架构
  2. 掌握了各概念的定义和作用
  3. 明白了概念之间的相互关系
  4. 获得了实际应用的指导建议

这些概念不是孤立存在的,而是构成了一个完整的 AI 应用生态系统。只有理解它们的底层逻辑,才能在实际工作中灵活运用,构建出真正强大的 AI 应用。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐