本文对比了传统 RAG 和 GraphRAG,指出传统 RAG 存在召回精确率低、语义相似不等于真正相关的问题。GraphRAG 通过构建实体-关系图,实现精准的多跳知识检索,解决传统 RAG 的痛点。文章详细介绍了 GraphRAG 的构建和检索过程,并分析了其优缺点和适用场景,强调 GraphRAG 是 RAG 的增强而非替代。


今天来聊一聊GraphRAG(知识图谱的一种)。

在了解之前,我们先弄清楚两个问题。

● RAG 和 GraphRAG 有什么区别?

● 为什么要用 GraphRAG?

传统 RAG

传统 RAG(Retrieval-Augmented Generation)简单理解就是是对 LLM 的知识补充和增强。

LLM 再强也有它不知道的内容,所以 RAG 就是预先根据用户的问题从 向量库中检索到相关的内容再给到 LLM 作为 Prompt 总结答案。

流程如下:

query → 向量检索 → 召回 top-k 个 chunk → 拼 prompt → LLM 回答

传统 RAG 有一个明显的问题,任何问题它基本都能回答,但是答案不一定正确,也不一定标准!!!

RAG 依赖的向量库中的内容大多是基于文档 doc 分片 chunk 后,再通过 LLM 向量化到向量库中。

文档 doc 有一定的局限性,上下文本应该关联的内容向量后可能会分开存储在不同的 chunk 中,这就导致在进行 RAG 召回时,召回精确率低,还可能会召回大量不相关的内容。

总结两点:

1、top-k 是一个人为的硬参数阈值

● k 太小:漏召回(Recall 低)

● k 太大:噪音多、成本高,LLM 容易被无关信息带跑偏

2、语义相似 ≠ 真正相关

向量检索是找到跟用户 query 语义最相似的文档 chunk。

举个例子:一个文档 chunk 中可能存在 100-1000 个字,但是跟用户 query 语义相似的内容可能只有 10 个字。 其他内容都是无关信息,就会造成干扰。

另外,用户问题大多时候存在 多跳、 间接关联 的场景:

举个例子:

  • A -> B -> C(A 影响 B、B 影响 C,A 间接影响 C)
  • A 包含 D、E(D、E 是间接影响 C 的动作或内容)

用户问题如何提高 C,传统 RAG 通过语义向量检索只能检索到 C 内容,无法检索到 A 和 B,以及 D、E。 因为 chunk 之间缺少关联关系。

GraphRAG

GraphRAG(Graph Retrieval-Augmented Generation,图检索增强生成)是一种把“知识图谱”与“传统 RAG”结合起来的技术。

核心思路是:不再像传统 RAG 那样只拿 语义相似的 chunk 当参考资料,而是先把外部知识整理成一张“实体-关系图”,再按图结构去精准检索相关子图或路径,最后把图信息转成自然语言上下文喂给 LLM,让它生成答案。

简单理解:GraphRAG 就是点到点的一个知识关系结构。

如何建立图谱?

主要分为三步:

文档 → 提取 chunk → LLM 抽实体/关系 → 知识图谱

● 对每个文档 chunk 让 LLM 抽实体(指标、组织…)和关系(包含、衍生……)

● 合并成一个全局知识图谱:实体 = 节点,关系 = 边

● 每个实体/边都保存 自身来自哪些 chunk 的内容

如何进行图检索?

对用户问题进行分词解析,提取出其中的关键 实体 和 关系,对应到知识图谱中的节点,在图谱中沿着边进行 多跳遍历,尽可能搜集所有相关的节点和边,形成一个与用户 query 紧密相关的 子图这个时候就相当于有了图导航。

根据子图节点找到对应的 文档 chunk,剔除噪音并剔重,拼接成 Prompt 给到 LLM 总结生成答案。

总结:

● GraphRAG 图谱不会作为最终数据来源

● 每个实体/关系都要映射到具体的文档 chunk

● GraphRAG 是 RAG 的增强不是替代

GraphRAG 的代价 & 适用场景

GraphRAG 相对 RAG 在某些场景是具备一定的优势,但也有一定的缺点。

● 成本高,废 token,需要离线抽取实体,增加大量 token 消耗

● 更新复杂,如果文档变动,可能需要重构图结构(重新提取实体/关系)

试用场景:

● 传统 RAG 适合频繁更新的知识库(比如:公告、等)

● GraphRAG 更适合类似以说明书、公开技术文档等长周期低变动的内容

简单总结下:

RAG 和 GraphRAG 各有优势,关键不是“谁替代谁”, 而是让 GraphRAG 当“导航”,RAG 当“真相”。

AI时代,未来的就业机会在哪里?

答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具,到自然语言处理、计算机视觉、多模态等核心领域,技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。

在这里插入图片描述

掌握大模型技能,就是把握高薪未来。

那么,普通人如何抓住大模型风口?

AI技术的普及对个人能力提出了新的要求,在AI时代,持续学习和适应新技术变得尤为重要。无论是企业还是个人,都需要不断更新知识体系,提升与AI协作的能力,以适应不断变化的工作环境。

因此,这里给大家整理了一份《2025最新大模型全套学习资源》,包括2025最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题等,带你从零基础入门到精通,快速掌握大模型技术!

由于篇幅有限,有需要的小伙伴可以扫码获取!

在这里插入图片描述

1. 成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。
在这里插入图片描述

2. 大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

在这里插入图片描述

3. 大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

在这里插入图片描述

4. 大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

在这里插入图片描述

5. 大模型行业报告

行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

在这里插入图片描述

6. 大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

在这里插入图片描述

为什么大家都在学AI大模型?

随着AI技术的发展,企业对人才的需求从“单一技术”转向 “AI+行业”双背景。企业对人才的需求从“单一技术”转向 “AI+行业”双背景。金融+AI、制造+AI、医疗+AI等跨界岗位薪资涨幅达30%-50%。

同时很多人面临优化裁员,近期科技巨头英特尔裁员2万人,传统岗位不断缩减,因此转行AI势在必行!

在这里插入图片描述

这些资料有用吗?

这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

在这里插入图片描述
在这里插入图片描述

大模型全套学习资料已整理打包,有需要的小伙伴可以微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费】

在这里插入图片描述

Logo

为武汉地区的开发者提供学习、交流和合作的平台。社区聚集了众多技术爱好者和专业人士,涵盖了多个领域,包括人工智能、大数据、云计算、区块链等。社区定期举办技术分享、培训和活动,为开发者提供更多的学习和交流机会。

更多推荐