朋友们好啊!我最近在研究claude-code,并且对智能体有了更新的认识。claude-code是一款编程工具,但是本质上它是一个AI智能体,可以完成包括编程在内的其他任务,因为它可以根据任务的进度,实时的对当前所发生的事情进行思考,并自行作出决策,因此,如果交给它的任务是类似规划旅游路线、处理税务等,理论上只要工具充足,它都能完成这这些任务。不过,今天,我将详细讨论一下它里面的skills这个可能颠覆下一代智能体的新技术。

什么是Skills?

从现实角度讲,在claude-code中,skills就是一堆文件夹,每一个文件夹里面包含了一些固定的文件,

  • Instructions(指令):SKILL.md 及其他 Markdown 文件,包含工作流、最佳实践和指导,本质上就是告诉大模型,我这个skill可以做什么,让大模型决定在什么场景下使用本skill,以及如何使用本skill
  • Scripts(脚本):通过CLI运行的本地脚本,我个人理解,其实它的作用就是“工具”的作用,甚至是更底层的工具
  • Resources(资源):一些模板、数据之类的素材,例如你搞到的一个电商品类分析的表,价值就很大,这些资源可以给AI提供更多的参考,或者作为脚本运行的一些基础材料

网上有很多文章,专门去讲如何使用它,这里就不过多展开,我们主要聊一聊它内在的一些变革意义。虽然从技术上,Skills是比较简单的,但是,当我们更深入地去思考,就会发现,在概念上Skills所带来的价值非常大。从概念上,我们可以重新去解释Skills,让读到这篇文章的朋友们可以更彻底地理解什么是Skills。

让我们更理解Skill的概念

我们用人来类比,Skills特指我们在简历中“特长”一栏所填写的内容,一个skill就是claude-code的一个特长。当公司需要有人去接待外国客户时,老板会从简历中去找“特长”一栏填了“特长英语,雅思8.0,口语流利”的人出来。随后,人事总监召集了这些人,开始对他们能否通过英语来表达公司产品的优势、公司企业文化等等进行了深度评测,而这些人只有很少一部分能以非常专业的术语,来契合公司生产的实际场景。最后,终于挑出了一个人,成为这次任务的实施者,并最终完成了任务。而正是这次完成任务的经验,让公司在下次需要接待外国客户时,仍然找他。

当claude-code发布Skills功能之后,用户就可以为它定制特长技能。当新的技能被安装好后,用户可以在提示词中指出,使用xx这个技能为我做xx事,claude-code就会去加载这个技能,当然,即使不在提示词中明确指出,claude-code也会根据用户的意图去判断是否要使用某些技能。

一旦技能被触发,claude-code就不再通过大模型生成的方式去执行任务过程中的某些具体处理点,而是通过大模型生成调用skill中的脚本来完成任务。

Skills是一个全新的创新,在以往是没有出现过类似技术的。虽然它的原理是可以被轻松理解的,但是在此之前,从来没有人这么去做过,而这次claude-code做了一个非常有意义的功能。

和工具调用有什么不同?

最早,我们通过Function Call模式来实现大模型工具调用,简单讲就是让大模型返回一个用来做工具调用的固定JSON格式(包含函数名和参数),本地程序拿到这个JSON后,按照固定规则去调用本地的一个函数,执行完本地函数拿到结果后,将结果交给大模型,让大模型进行下一步处理。后来,MCP成为工具调用的主要方式,它在Function Call的基础上,增加了更丰富的协议层,并且涌现了一大批第三方的MCP服务。但是,随着agent链接的MCP服务越来越多,问题也越来越麻烦,因为MCP需要提供丰富的指令信息,而且每次请求都会携带,这就使得token消耗的很快,大模型性能受到影响。虽然通过技术手段,可以对单次请求对MCP做遴选,但是所消耗的时间成本也很大。

而Skills的出现,既能满足工具调用的需求(甚至在skill内部调用MCP也是可以的),同时它的token消耗又比较少(据称是单个100词左右),而且claude-code客户端自带了遴选逻辑,因此还非常省token,也就是实实在在的省钱。而且,和MCP类工具调用不同,Skills中的脚本专注度非常高,一个skill就为解决一件事,因此,只要用上这个skill,那么这个skill就能帮你非常精准的解决它所面对的问题,这对整个agent的执行效果来说,也是极大的提升。这比以前工具调用来说,提升的非常巨大。

和RAG之类的知识库有什么不同?

Skills还可以和RAG之类的知识库进行PK,它虽然是技术工具,但是它在某种程度上,知识比RAG更加准确。之所以会出现这个情况,是因为skill本身就是对解决某些问题(特别是非常小的精细化的问题)的技能浓缩,你可以理解为“所谓技能,就是在某个问题点上,专门的优秀解决之道”。因此,实际上,有了skills之后,解决小问题就像有了手术刀,快准狠,没有废话,毫不拖泥带水。这样一来,在某些知识问题面前,skills比知识库有着更精准的性能和更快的效率。不过,知识库的优势在于可以巨量地管理,而skills只能面对具体问题,无法做到知识库覆盖面那么广,而且skills专注于解决问题,只是附带提供解决问题的背景材料才和知识库走上了PK道路。

“经验”代码化

Skills会有“经验”的能力,它会记录每一次执行某个skill后得到的结果,将“这样执行会得到什么”作为它记忆的一部分,在后续的任务中,可以基于这些“经验”,快速解决一些场景问题。简单讲,skill程序会把运行过程的表现,总结之后,更新到自己的文档中,这样就相当于有了非常多的example,就像医生看病有很多自己的病例、棋手下棋有很多自己的棋谱,skill把自己解决过的问题总结到自己的文档中,形成了丰富的“经验”,在下一次遇到非常类似的问题时,它可以减少思考,直接从这些案例中取出脚本,可能会稍微调整一下,有的甚至都不用调整,直接传不同参数,就可以得到想要的结果。不要忘了,skill针对的是特定问题,而这类问题有非常明显的“领域特征”。这让一个skill转身变成一个领域专家。

如果后续社区发展,有人做了一个能力,通过点对点网络(类似区块链)来共享skill经验,那么,相当于所有使用了这个skill包的用户,都拥有了以前使用过这个skill的其他用户的经验,这是非常有想象空间的一件事。未来,可能针对某个非常小的领域,(我最近学会了一个词,叫“利基”)就形成了人类独有的经验套件,而且,由于这份经验是代码化的,通过点对点网络来传播,那么,相当于人类完全拥有了针对这个利基领域的绝对经验。这让我想到了《三体》中,三体人思想透明的想法,很有意思。

把编程重新拉回确定性强的轨道

以前,编程是确定性很强的一项工作,1是1,2是2,代码绝对不可以含糊。但是到了AI时代,代码变得很不确定,它像是一个黑盒,你不知道代码内部做了什么,你只关注AI帮你写了实现你需求的代码。这种不确定性让很多编程行业的人瞬间发慌,赶觉这事要完💊……而Skills则是将这种不确定性重新拉了回来,为AI编程的未来,奠定了新的基础。

AI编程本质上还是要依靠大模型的预训练,才能在代码领域有所作为,agent只是可以从研发流程的角度,让编程过程更能贴近真实的开发来提升其准度,然而,如果大模型不行,再好的agent也无济于事。这也是为什么虽然claude-code可以通过修改配置来使用国内的大模型,但是,最终的编程效果却差得不是一星半点,而是十万八千。因此,对大模型的超强依赖,降低了AI编程的可控性,无论是代码的质量,还是基于大模型做决策的编程过程,都存在很大的不确定性,这也是为什么很多同行抱怨国内某些AI代码编辑器无端删代码。

而通过Skills,在同水平的大模型作为基座的前提不变下,可以提升编程的效果。

原理其实比较容易理解,首先,skill提供了关于特定问题的知识,由于关注点小,知识也就可以提供的更全面;其次,skill提供了前文所说的经验,也就是example,这也是大模型非常喜欢的东西;再次,skill可以通过脚本直接处理特定问题,这比之前大模型生成脚本代码,再保存到本地,再运行,常常是基于一些正则匹配或grep的方式进行代码搜索的情况,性能方面,skill可以做的更好,而且skill文件本身可以迭代,做的不好的,还可以修改。

之所以讲Skills会奠定AI编程未来的基础,是因为我看到了它在解决编程这件事上的一种创新,它的这种机制屏蔽了非常多的技术细节,把开发体验做的很好,同时,又真的能解决实际开发中的一些问题。从目前看到的一些公共skill来看,不少都获得了非常多的点赞,比如用来做设计的、Bug调优的、性能提升的等等。这些skill并不需要作者真的写出非常庞大的代码来解决问题,而是通过详细的描述问题本身和解决方案。想想当年我们需要通过babel来解决js的代际编译,其工程量如此巨大,真的是一种时代的遗憾。

最关键的是,它解决问题的机制,从底层重新定义了编程工作的内容,而且是确定性很强的工作内容。开发者从写确定性很强的编码,到无所适从的提示词工程、上下文工程,再到确定性很强的skills,这是一个螺旋式上升的范式迭代。

智能体构建进入Skills时代

从最原始的工具调用到MCP再到Skills,智能体完成了第二次工具调用的进化。claude官方团队也作出了表态,他们将暂停MCP的进一步开发,因为他们看到了Skills的无限潜力。过去,我们通过传统的工具调用形式,自己写了一堆工具,让大模型去调用,抑或是通过MCP来调用工具。无论是哪一种,我们都需要提供非常丰富的上下文,通过与大模型直接交互来对工具执行结果进行深度的处理。但随着Skills的出现,工具调用的模式可能发生巨大的变化,Skills里面主要通过让大模型直接执行已有脚本,或者在已有脚本基础上进行优化后,得到新脚本来进行执行,而具体脚本做什么则是有文档来告知,至于在脚本中是去调用本地工具,还是发http请求来得到内容,大模型和agent都不需要知道,它们只负责上下文的构建和结果的输出。这意味着,传统的工具调用协议(Function Call和MCP)不需要了,或者说被脚本黑盒化了。这样,对于agent而言,只关注上下文,只对输入输出负责,注意力就更集中,在大模型性能本身不变的情况下,agent的能力得到提升。而且附带的,由于Skills的这种模式,上下文的token天然就少了很多,落地到我们这样的用户而言,就是花的钱变少了,能力还能提升。

过去很长一段时间,我们对Agent,信奉的都是“解决了工具调用问题,就解决了Agent”,然而,Skills的出现,让我们重新认识到“大道至简”,或许,我们根本不需要那么多工具,直接生成CLI脚本来运行可能就是那个最终的密码。

这一点,其实在manus公布了自己的一些技术细节的时候,就已经弥生了趋势,我们从manus的公开技术中了解到了,manus的核心优势是走了与大多数平庸agent完全不同的技术路线,它注重工具的执行,为工具创建沙箱环境,而非当时大部分agent公司鼓吹的多agent模式。claude-code这次的Skills路线也是同样的道理,当大多数人还在构建工具体系时,他们却走向了“去工具化”的另一个方向。同样,沙箱环境再次成为不可或缺的一环。

这种技术路线不仅直接绕开了工具调用的复杂问题,而且还用更少的成本获得了更精准的输出效果。“Skills kill MCP”可能是真的,虽然在某些场景下,传统的工具调用是必须的,但是大部分情况下,通过Skills来解决Agent任务周期内的执行,是可行的。特别是现在Agent领域的垂直化趋势,大家不再追求通用Agent,而是做垂直领域的Agent,把一个领域吃透。而细分领域更有利于沉淀Skills,甚至一个skill本身就可以作为产品进行销售,因为一个优秀的经过验证的skill本身就是解决问题的方案,本身就是问题的答案。如果在某个领域,我们知道问题所在,而手里又正好有所有的钥匙,那么我们就可以构建出一个好的针对该领域的agent。并且,构建的成本和效率都会变得令人满意。

不过,目前来说,公开可用的Skills还是比较少的,有些问题虽然比较细分,但是要整理出完整的skill还是会比较麻烦,因此,目前的生态还是欠佳。

让Agent自己写代码来解决问题

如果你是一个市场调研人员,你向Agent提出这样的需求“帮我列出宝洁公司去年的采购清单”,如果是真人,拿到这样的问题,是否会头大?这里面最麻烦的是,采购数据是对方公司的机密信息,怎么可能被我们获取呢?但是,如果现在我们想象一个场景,如果你是一名黑客,通过技术手段入侵了对方的系统,拿到了这个数据,(注意,这是违法行为,禁止这样实施)就可以得到想要的,不是吗?既然人可以通过技术手段来完成,为什么AI不可以?

这里就涉及到一个新的概念,“深度编程”。简单讲,就是为了解决一个问题,写了一个复杂程序。AI自己为了解决一个(可能很小的)问题写了一个非常复杂的应用,来完成目标任务。举个例子,为了实现对pdf的理解,AI实时编写了一个pdf解码程序(软件);为了实现地图标注,AI实时写了一个地图应用来渲染地图;为了实现某家公司当天的股价进行分析,AI自己写了一个股票数据看板应用;为了实现与用户的可视化交互,AI自己写了一个点对点实时通话应用(最近google发布了A2UI协议,和这事儿关联挺大);甚至,为了解决某些问题,Agent自己写了一个Agent来完成这个问题的解决……而更重要的一点是,解决了这个问题之后,AI大费周章折腾的这些程序、软件,直接丢弃了,不需要了。这就是AI时代的处事风格,通过实时编程(创建复杂程序)来解决一个任务中的单点问题,这种“杀鸡用牛刀”的风格,在下一代Agent中会变得非常常见。

这里的核心思想在于,人只是提出需求的一方,而AI是实现的一方,人不再关注实现过程,只关注结果。能够支撑AI完成这种广域范围的编程能力,只为解决人类一个大需求中的一个细节的,绝对不是当前的Agent工具调用技术,而是更底层更根本的机器脚本技术。而Skills明显离这种情况更近一些。现在AI的自主能力远远不及人们的预期,根本的原因是,AI还无法通过思考找到脱离模型本身的解决路径,例如AI无法通过自我发现而连接到facebook寻找人物关系作为解决获客问题的一环,也无法通过自主决策在NASA官网提交深空探索建议书作为解决研究深空温度测量的一环,AI还是按照人类设计的牢笼在工作,因此,还远远达不到人类的预期。只有当人们赋予它更原始的,接触到底层操作系统的权限的时候,它才能在自我积累后找到可能突破的路径。而Skills的这种从工具中脱离出来,大道至简,以命令行为主要实施手段的方式,正好是解放Agent的一条有利路径。

当然,这也会有些问题,如果AI可以无限制的深度编程,很有可能会出现一些事故,例如把发电厂的系统搞崩溃而导致城市断电、尝试发射导弹、为了试验深空太阳能把一头奶牛送上太空……AI不会觉得这很奇怪,因为这只是它们解决问题的一个环节而已。虽然如前文提到,我们会考虑使用沙箱来运行AI编写的程序,但是AI很可能突破这个沙箱。这会是一个巨大的挑战,如何找到解决这种矛盾的办法,未来肯定是一个值得研究的课题。

结语

本文从claude-code的Skills功能展开,探讨了Agent设计的一些想法。对于开发者们而言,Skills可以帮助我们解决一些AI编程的不确定性问题,可以帮助我们降低AI编程中的幻觉,同时又由于其特殊的设计,可以节省成本。在Agent设计中,Skills是一个新思路,它突破了传统工具调用的局限,很可能在未来占据一席之地。对此,你有什么看法呢?可以在下方留言,让我们一起探讨。

如何系统的学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

在这里插入图片描述

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

在这里插入图片描述

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K(数据来源:BOSS直聘报告)

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

02.大模型 AI 学习和面试资料

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐