
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
我们上文简单实现了一下如何加载文本,如何切分文本,如何向量化,并且简单测试了一下检索。这里我们来实现如何基于我们构建好的向量知识库来进行大模型的chat功能。
我们来搭建一个基于langchain的本地LLM,并且实现一个rag的检索增强器。原谅我就是这么单刀直入,没有废话。至于那些工具我就不多介绍了,网上说了很多了,我们直接进入操作。
之前我们用langchain来操作本地部署的模型做了一些工作。我们今天就操作一下openai的接口,全面了解一下具体的运作方式。
我们在使用各种大模型产品的时候,我们作为用户其实能做的不多。只是构建一个合理的输入这样就没了。更多的是交给大模型端来处理,那么我们这个系列其实是针对大模型之上,用户之下构建的定位。我们需要在这里做更多的东西来让大模型和用户之间交流的更加顺畅。其中有一个非常重要的点就是上下文的记忆。如果我们没有上下文记忆,那我们使用大模型就和传统搜索引擎没有任何区别,永远局限于当前交流,这种无疑问是不合理的。所以我
我们此时其实已经完成了简单agent的制作,我们同时看到了langchain的强大,还有很多的功能等待我们学习。接下来我们就来整合所有的知识,来完成一个rag+agent系统。
上文中我们完成了ollama的安装和启动,并且测试了几个模型的效果,不管好坏来说。总算是跑起来了,接下来我们要使用langchian来进行一些开发。在开发之前我们需要做一个环境的准备,这个环境指的是python环境。
我们可以参考这里来实现。而且我们看到他支持三种方式来创建tools。具体的内容可以去阅读文档,我们这里先使用第一种来实现一下。我们到此就让大模型联网检索了,其实还能进一步调用tool来完成更多的能力。
今天正在路上刷手机,突然看到群里有人发了一个链接,内容是Spring Cloud Alibaba AI 的使用,,于是就想着玩一玩试试,难度不大,就是有些文档的坑,这里做一个记录,后续会继续更新这个系列的,毕竟AI时代,我们springer也得搭一下顺风车。
我们到此完成了文本的rag存储,后面我们将会使用rag增强检索来增强大模型的问答效果。
我们来搭建一个基于langchain的本地LLM,并且实现一个rag的检索增强器。原谅我就是这么单刀直入,没有废话。至于那些工具我就不多介绍了,网上说了很多了,我们直接进入操作。







