做AI大模型研发这些年,经常被朋友问:"你们天天说的LLM、Agent、Prompt到底是啥?"

今天用大白话给大家盘一盘,AI大模型从"能简单对话"到"能自主干活"的演进过程中,8个最核心的名词。保证小白也能看懂!

LLM:大模型的"大脑基础"

我们研发初期做的小模型,连"明天天气好我们去野餐"这种带条件的句子都理解不了——它只能处理最简单的问答。

LLM(大语言模型)的出现,直接解决了这个痛点。它让模型能像人一样读懂自然语言、理解复杂逻辑。

通俗理解:LLM就像大模型的"大脑基础",没有它,后面所有功能都白搭。

Token:给LLM准备的"语言积木"

问题来了——LLM无法直接处理完整的文字句子,它需要先把文字拆成"积木"。

这就是Token:一个汉字、一个英文单词、一个标点,都可能是Token。

通俗理解:Token就像给LLM准备的"语言积木",LLM靠拼接这些积木来理解和生成语言。

我们研发时通过控制Token数量,来控制模型的输入输出长度和计算效率。

Context:LLM的"短期记忆"

早期的LLM有个大问题——只能处理短文本,聊完就忘。

Context(上下文)解决了这个痛点。它让LLM在交互过程中"记住所有前文信息",包括用户的提问、模型的回复。

通俗理解:Context就像给LLM装的"短期记忆",能记住之前聊过的内容,不会聊到一半就"失忆"。

Prompt:给模型的"工作指令"

光能理解语言还不够,怎么让模型"按我们的需求做事"?

答案就是Prompt——用户给模型的指令/提示。

通俗理解:Prompt就像给LLM下达的"工作指令",告诉模型要做什么、怎么做。

比如我们研发时会设计"总结这篇文章核心观点,分3点说明"这样的精准Prompt,让模型从"能说话"变成"会做事"。

Agent:给LLM装上"自主行动的手脚"

单纯的LLM只能被动响应指令,让它独立完成复杂任务?难。

Agent的出现解决了这个问题。它让模型拥有了"自主决策能力"——能理解需求、规划步骤、执行任务,甚至调整错误。

通俗理解:Agent就像给LLM装上了"自主行动的手脚",不用人一步步指令,就能自己完成复杂工作。

这是大模型从"被动响应"到"主动服务"的关键转折点。

Agent Skill:智能体的"专业技能包"

光有Agent还不够,它需要"会做更多事"。

Agent Skill就是Agent具备的"具体能力模块"——查询信息、编辑文档、计算数据等。

通俗理解:Agent Skill就像给智能体配备的"专业技能",技能越多,能做的事越多。

我们研发时会根据不同场景,给Agent配置不同的Skill。

MCP:多智能体的"团队工作规则"

问题来了——多个Agent同时工作,就会出现"分工不清、内容冲突"的混乱。

MCP(多智能体协同协议)应运而生,它是协调多个Agent高效工作的规则和机制。

通俗理解:MCP就像工程师制定的"团队工作规则",让多个智能体各司其职、配合默契。

比如一个Agent查资料,一个Agent写文案,MCP负责协调两者配合完成。

Tool:突破LLM的"外部装备"

LLM再强大,也有局限——它无法获取实时信息、无法完成复杂计算。

Tool就是Agent可以调用的"外部工具":计算器、搜索引擎、文档工具等。

通俗理解:Tool就像给Agent配备的"外部装备",自身做不到的事,用工具来完成。

这是大模型落地应用的关键——让模型从"只懂语言"变成"能解决实际问题"。

结尾

说了这么多,其实可以用一句话串起来:

LLM是基础,Token是原料,Context让模型记住上下文,Prompt下达指令,Agent有了自主能力,Skill是技能包,MCP协调多Agent配合,Tool让Agent调用外部资源。

这些名词不是孤立的,而是一步步解决研发痛点、推动大模型从"能说话"到"能自主干活"的核心技术。

希望这篇文章能帮大家建立对AI大模型的完整认知!

 做一个有深度的技术人

历史精彩文章推荐:

从被动到主动:主观能动性的力量

复利(滚雪球)的魅力

基于“第一性原理”的思路工作

聊聊“晋升”到底该怎么做

万能方法之如何使用"MECE"分析法高效解决问题

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐