
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
但只看这个名字,确实会有点抽象。它到底是什么?它和 API 文档有什么区别?它为什么会直接影响大模型选工具、填参数,甚至影响整个调用效果?这篇内容,我想把 Tool Schema 彻底讲清楚。Tool Schema,就是系统提供给大模型的结构化工具说明,用来告诉模型“这个工具能做什么,以及该怎么调用它”。
用户提问 → 工具说明输入给 LLM → LLM 判断是否调用工具 → 系统执行工具 → 结果回填给 LLM → 生成最终回答。大模型到底是怎么知道有哪些工具可以调用的?如果系统同时给了它很多工具,它又是怎么选中正确工具的?这篇文章,我就想专门把这个问题讲清楚。系统先把可用工具清单告诉大模型模型再根据用户问题和工具描述之间的语义匹配,决定要不要调工具、该调哪个工具。系统先把工具清单交给模型,模型先
大模型既然知道要查天气、查快递、查订单,那它是不是就能自己直接去执行这些工具?但真实情况并不是这样。大模型本身擅长的是理解语言、生成内容、做决策,它并不会真的自己去点按钮、调用接口或者操作数据库。第一次:理解用户问题,看有哪些工具可用,判断要不要调用工具,并生成工具调用意图第二次:接收工具执行结果,再组织成用户最终看到的自然语言回答模型负责决策,系统负责执行,结果再返回给模型继续组织答案。用户问题
很多人第一次接触大语言模型时,都会有一种错觉:它好像真的“记得”我们前面说过的话,也“知道”自己之前回答过什么。但真相是:它其实没有记忆。那为什么它知道我之前输入了什么?也知道自己之前回答过什么?为什么它总能把回答写得层次清晰、格式规范?为什么它显得很“懂我”?我没有明确说明的内容它都能察觉到呢?走吧,我们一起来解决这三个问题!
一开始我对这个岗位的理解很表面,总觉得它好像就是“会写提示词的人”。但接触得越多,我越觉得这种理解太浅了。因为在真实的 AI 应用里,Prompt 工程师做的事情并不只是写几句话,而是要,去设计一整套。所以这篇文章,我想继续用“”的方式,梳理一下 Prompt 工程师到底在做什么,以及为什么它并不只是“写提示词”这么简单。







