LightRAG是采用模块化架构的轻量级检索增强生成系统,包含文档处理管道、存储层、检索引擎和响应生成四大组件。系统采用多层存储架构,支持多种后端选择;提供多种检索模式(naive、local、global等);灵活集成各类LLM和嵌入模型;通过文档处理管道将原始文本转换为知识图谱,实现高效的大模型应用开发。

一、系统架构

LightRAG使用模块化架构,包含四个主要组件:

  • 文档处理管道:将文档分割成片段并提取实体和关系
  • 存储层:管理向量嵌入、知识图谱和文档状态
  • 检索引擎:使用向量搜索和图遍历实现各种检索策略
  • 响应生成:使用 LLM 基于检索到的上下文创建连贯的响应

二、核心组件

LightRAG 围绕几个相互作用的组件构建,每个组件都有特定的职责:

组件 描述 关键类
存储层 管理不同类型的数据,具有专门的后端 BaseKVStorage, BaseVectorStorage, BaseGraphStorage, DocStatusStorage
文件处理管道 将文档转换为块、实体和关系 extract_entities, merge_nodes_and_edges
知识图谱 管理实体和关系连接 BaseGraphStorage
查询引擎 使用知识图谱处理用户查询 kg_query, naive_query
LLM集成 与不同的语言模型接口 lightrag/llm/

三、存储架构

LightRAG采用多层存储架构,具有针对不同数据类型的专用组件。这种设计允许灵活选择后端,并针对每种数据类型进行优化性能。

存储系统使用可插拔架构,具有多种实现选项:

  • 键值(KV)存储
  • 存储完整文档、文本块和 LLM 响应缓存
  • 默认实现:JsonKVStorage
  • 其他后端:Redis、MongoDB
  • 向量存储
  • 存储语义搜索的向量嵌入
  • 默认实现:NanoVectorDBStorage
  • 其他后端:Faiss、Milvus、Qdrant
  • 图存储
  • 存储知识图谱结构
  • 默认实现:NetworkXStorage
  • 其他后端:Neo4j、MongoDB、PostgreSQL
  • 文档状态存储
  • 跟踪文档处理状态
  • 默认实现:JsonDocStatusStorage

存储后端多种可配置项:

存储类型 功能 可用后端
KV存储 文档和文本块存储 JsonKVStorage, PGKVStorage, RedisKVStorage, MongoKVStorage
向量存储 嵌入向量存储 NanoVectorDBStorage, PGVectorStorage, MilvusVectorDBStorage, ChromaVectorDBStorage, FaissVectorDBStorage, MongoVectorDBStorage, QdrantVectorDBStorage
图存储 图边和节点存储 NetworkXStorage, Neo4JStorage, PGGraphStorage, AGEStorage, MemgraphStorage
文档状态存储 文档处理状态 JsonDocStatusStorage, PGDocStatusStorage, MongoDocStatusStorage

四、文档处理管道

LightRAG 通过一个复杂的管道处理文档,将原始文本转换为知识图谱,同时保留原始上下文:

  • 文本处理步骤
  • 文档摄取:接收文档并分配唯一 ID。
  • 分块:根据标记大小将文档拆分为更小的块。
  • 实体提取:使用 LLM 识别每个块中的实体和关系。
  • 知识图谱构建:实体成为节点,关系成为边。
  • 向量嵌入:块、实体和关系嵌入以进行语义搜索。

  • 多模态拓展

五、查询引擎

LightRAG提供了多种不同的检索模式,用于确定如何检索信息:

  • naive:简单的向量搜索,没有知识图谱
  • local:关注上下文相关的信息
  • global:利用全局知识图谱连接
  • hybrid:结合本地和全局检索方法
  • mix:结合知识图谱和向量检索

通过更改QueryParam中的mode参数来尝试不同的模式。

模式 描述 用法
naive 简单的块向量搜索 基本文档检索
local 针对查询中相关实体的知识图谱遍历 专注的上下文知识
global 更广泛的知识图谱探索 广泛的知识综合
hybrid 结合本地和全局方法 深度和广度之间的平衡
mix 使用所有检索方法的复杂方法 最全面的检索
bypass 直接LLM查询,不进行检索 当不需要外部知识时

六、LLM和嵌入集成

LightRAG设计用于与各种LLM提供商和嵌入模型一起工作,提供模型选择的灵活性:

  • LLM集成
  • 支持的 LLM 提供商:OpenAI、Azure OpenAI、Anthropic、Hugging Face、Ollama
  • 模型选择:通过环境变量或直接API进行配置
  • 流式支持:异步流式响应以实现实时交互
  • 缓存:内置响应缓存以减少API调用
  • 嵌入模型
  • 嵌入函数:可插拔的嵌入函数用于向量表示
  • 批量处理:高效的批量处理以进行文档嵌入
  • 缓存:嵌入缓存以减少冗余计算

七、数据流架构

LightRAG中的完整数据流从文档摄取到查询响应遵循循环模式:

八、扩展

LightRAG提供了几个扩展和集成点:

  • 自定义知识图谱集成:
  • 直接插入自定义知识图谱
  • 与外部图数据源集成
  • 重排序:
  • 可选的重排序模型以改进检索质量
  • 与各种重排序服务兼容

  • 可视化工具:
  • 知识图谱可视化功能
  • 与Neo4j和其他可视化库集成
  • Web UI和API服务器:
  • 内置Web界面用于文档管理
  • REST API用于与其他应用程序集成

那么,如何系统的去学习大模型LLM?

作为一名从业五年的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。

所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。

由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
在这里插入图片描述

为什么要学习大模型?

我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。

在这里插入图片描述

在这里插入图片描述

👉大模型学习指南+路线汇总👈

我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
在这里插入图片描述
在这里插入图片描述

👉①.基础篇👈

基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
在这里插入图片描述

👉②.进阶篇👈

接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
在这里插入图片描述

👉③.实战篇👈

实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
在这里插入图片描述

👉④.福利篇👈

最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
在这里插入图片描述
相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!

Logo

更多推荐