
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
打开Cursor,Ctrl + Shift + P,搜索并点击“Install from VSIX”如果C++,发现无法跳转到函数定义,解决方案,把cursor自带的c/c++插件删了。开启vibe coding氛围编程吧~实现从开发者->审核员!挑一个C/C++的扩展插件,下载,重启cursor,即可。

我们之前在说嵌入型模型将文本->向量,聊过RAG技术。所以为啥要有RAG技术呢?看完一下场景就知道了:对于【AI 大模型】来说,它最擅长的是语义理解和文本总结,最不擅长的就是获取实时的信息。因为大模型的训练数据是有截止日期的!对于【搜索引擎】来说,它最擅长的就是获取实时的信息,缺点是信息分散,每次都需要人为进行总结。所以如果我们能把【AI 大模型】+ 【搜索引擎】,那么就是给 AI 配备了⼀个活字

我们之前学的嵌入式模型,如果两个输入语义相似,那么在数学上他们的直接距离/余弦角是相近的,我们可以用数学衡量,而这里我们借助embedding API interface。⼀旦我们有了示例数据集,就需要考虑提示中应该有多少个示例。就像我们刷视频,语义相似性就是根据我们的喜爱,刻画画像,精准推荐给用户最喜欢的,而MMR,则会推荐用户喜欢的视频的前提下,还会推荐一下其他方面的,以免“在 LangCha

少样本提示是⼀种通过向 LLM 提供少量具体示例或样本,来教会它如何执行某项特定任务的技术。这里需要再区分一下,提示词模版,是为了方便我们的,让我们更好维护和管理,复用性更高,少样本提示模版是有利于LLM的,为了让模型的准确性更好,针对的角色是不同的。我们这里为啥不用聊天提示词模版了,一般聊天提示词模版是用于聊天对话的,当然也可以用,不过这种文本,直接使用PromptTemplate即可。"inp

我们将使用 StrOutputParser 来解析模型的输出,将 AIMessage中的消息,提取content,但是如果我们想自定义输出解析的格式,可以吗?当然可以,这就是LangChain的强大之处,支持我们自定义组件,并且解耦合式的连接进来。聊天模型的 .stream() ⽅法返回的是⼀个迭代器,该迭代器在⽣成输出时同步产生输出 消息块。那么我们的将实现的这些生成器的签名 是 Iterato

Runnable 接口定义了一个标准的接口,允许Runnable 组件进行Invoked(调用),Batched(批处理),Streamed(流式传输)1.幻觉问题,在使用LLM的时候,可能会发现,LLM开始回答的不合理了;对于 LangChain,它给我们提供了链式执行的能力,即我们只需要定义各个“组件”,将它们“链起来”,一次性执行即可得到最终效果。5.实效性问题,大模型的训练是有截止日期的,









