
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文介绍了LangChain中的检索器(Retrievers)及其应用。检索器是检索系统的核心组件,能够从大规模数据中查找相关信息,支持多种实现方式如关系数据库、词法搜索索引和向量数据库。重点展示了如何使用Redis向量存储作为检索器,包括初始化配置、执行查询和结果处理。文章还演示了如何通过@chain装饰器创建自定义检索器,并构建了一个完整的RAG(检索增强生成)案例,将检索结果与大语言模型结合

本文介绍了文本向量嵌入技术及其应用模型。嵌入模型将人类语言转换为计算机可理解的数值向量,保留语义关系,实现语义搜索、推荐系统等应用。文章详细解析了向量空间概念、相似度计算方法(欧氏距离、余弦相似度),并演示了如何使用LangChain框架集成OpenAI等嵌入模型。重点讲解了向量数据库的核心机制(如ANN近似搜索)及实际应用,包括内存存储(InMemoryVectorStore)、Redis和Pi

操作系统创建内核数据结构失败了:PCB,虚拟地址空间还有页表对应的物理内存申请不出来了,因为毕竟我们的PCB,虚拟地址空间还有vm_areas_struct,包括页表,这些东西就是数据结构对象,是需要开辟空间的,只不过这批数据结构,这些结构体对象是在我们操作系统内定义的,他开辟失败了,另一个就是加载内存的时候失败了:比如说加载代码和数据的时候失败了。到这我们已经知道了,创建一个进程就是在操作系统内

本文介绍了文本分割器在文档处理中的核心作用,重点讲解了两种主要拆分方法:基于字符长度的CharacterTextSplitter和基于Token的tiktoken编码拆分。通过具体代码示例,展示了如何通过设置chunk_size和chunk_overlap参数来控制拆分粒度,同时保持语义完整性。文章还分析了硬性约束拆分的RecursiveCharacterTextSplitter使用场景,以及针对

摘要:本文介绍了RAG(检索增强生成)技术及其实现流程。RAG通过将大语言模型与知识库结合,解决模型实时信息获取的局限性。其核心流程包括:文档加载(支持PDF、Markdown等多种格式)、文本分割、向量存储、语义检索和结果生成。重点展示了如何使用LangChain加载PDF和Markdown文档,并解析了Markdown文档的结构化处理方式(包括标题、列表、表格等元素的分类)。RAG技术能有效利

当使用 LLM 生成结构化数据或规范化聊天模型和 LLM 的输出时,这很有用。大型语言模型(LLM)的输出本质上是非结构化的。但在构建应用程序时,我们通常希望得到结构化的、机器可读的数据,这样可以将其转换为Pydantic它们将 LLM 的非结构化文本输出转换为结构化格式。这使得与 LLM 的交互从 “模糊的文本对话” 变成了 “精确的数据 API 调用”,是构建可靠、高效 LLM 应用不可或缺的

因为有了虚拟地址空间和页表的存在,物理内存中的数据可以被加载到任意位置,而进程管理模块和内存管理模块可以解耦合。这是因为虚拟地址空间为每个进程提供了独立的地址映射,而页表则负责将虚拟地址映射到物理地址。这种机制使得物理内存的分配和进程的管理可以独立进行。虚拟地址空间:每个进程都有自己的虚拟地址空间,操作系统通过页表将虚拟地址映射到物理地址,从而实现了进程之间的隔离。按需加载:操作系统采用按需加载的

摘要:少样本提示(Few-shot Prompting)是一种通过提供少量示例指导大语言模型执行特定任务的技术。文章详细介绍了其工作原理、应用场景和实现方法,包括四种示例选择策略(长度、语义相似性、最大边际相关性和N-gram重叠)及其在LangChain中的具体实现。通过数学运算、信息提取等案例,展示了如何利用示例数据提升模型性能,控制输出格式,并解决复杂推理任务。文章还比较了不同选择策略的特点

环境变量(environment variables)⼀般是指在操作系统中⽤来指定操作系统运⾏环境的⼀些参数;如:我们在编写C/C++代码的时候,在链接的时候,从来不知道我们的所链接的动态静态库在哪⾥,但是照样可以链接成功,⽣成可执⾏程序,原因就是有相关环境变量帮助编译器进⾏查找;环境变量通常具有某些特殊⽤途,还有在系统当中通常具有全局特性。环境变量的存储环境变量最初由操作系统和用户配置文件定义,

摘要:提示词模板是LangChain中的核心组件,用于动态生成大语言模型(LLM)请求。它通过占位符机制实现提示词复用,支持字符串模板(PromptTemplate)和聊天消息模板(ChatPromptTemplate)两种形式。主要优势包括:1)提高开发效率,避免重复编写提示词;2)实现工程与内容的关注点分离;3)保证提示结构一致性;4)便于统一维护修改。LangChain还支持从LangCha








