GraphRAG实战全攻略!知识图谱+向量数据库双引擎驱动:从文本提取到问答优化全流程拆解,收藏这篇就够了!
检索增强生成(RAG)是一种通过检索相关信息来增强传送至 LLM 的提示词(prompt),进而生成回应的方法。其核心思想是:与其直接向 LLM 发送提示词——而该 LLM 可能并未训练过你的特定数据,不如在提示词中补充相关信息,从而使 LLM 能更准确地回答问题。
在这篇文章中,我将重点讲解一种当前非常流行的 KGs 和 LLMs 联合使用方式:使用知识图谱的 RAG,有时也被称为 Graph RAG[2]、GraphRAG[3]、GRAG[4] 或语义 RAG[5]。
检索增强生成(RAG)是一种通过检索相关信息来增强传送至 LLM 的提示词(prompt),进而生成回应的方法。其核心思想是:与其直接向 LLM 发送提示词——而该 LLM 可能并未训练过你的特定数据,不如在提示词中补充相关信息,从而使 LLM 能更准确地回答问题。
由于知识图谱本身就是为存储知识而设计的,它非常适合用于存储企业内部数据,并为 LLM 提供附加上下文,从而提升回答的准确性和上下文理解能力。
一个重要但常被误解的点是:RAG 和基于知识图谱的 RAG(Graph RAG)实际上是一种技术组合方法论,而不是某种产品或技术本身。Graph RAG 不是由某个人发明,也没有任何人拥有它的专利或垄断权。尽管如此,大多数人都能看到将这两种技术结合的巨大潜力,而且越来越多[6]的研究也在证实这种结合带来的好处。
RAG 中使用知识图谱的三种方式
通常,在 RAG 的检索部分使用知识图谱(KG)有三种方式:
1. 向量检索(Vector-based retrieval)
•将知识图谱向量化,并将其存储在向量数据库中。•接着,将自然语言提示词向量化,可以在向量数据库中找到与该提示词最相似的向量。•由于这些向量对应的是知识图谱中的实体,因此可以根据自然语言提示返回最“相关”的实体。
注意:
•向量检索不一定需要知识图谱。这种方法实际上是 RAG 最初实现的方式,有时被称为“基础 RAG”(Baseline RAG)。•你可以将 SQL 数据库或其他内容向量化,并在查询时进行检索。
2. 提示词转查询检索(Prompt-to-query retrieval)
•使用 大语言模型(LLM) 为你编写 SPARQL 或 Cypher 查询。•将生成的查询应用于知识图谱,并使用返回的结果来增强提示词。
3. 混合方法(Hybrid:向量 + SPARQL)
•将上述两种方法结合起来,使用向量化进行初步检索,然后通过 SPARQL 查询 对结果进行精炼。•本教程主要演示这种 混合方法,即 向量化用于初步检索,再使用 SPARQL 精细化结果。
将 向量数据库 和 知识图谱 结合起来用于搜索、相似度计算和 RAG 有很多方式。这只是一个简单的示例,用于展示每种方法的优缺点,以及它们结合使用的好处。
口头流传的有趣例子:
某大型家具制造商的员工分享说,向量数据库可能会向购买沙发的用户推荐粘毛刷,而 知识图谱则能理解材质、属性和关系,从而避免向购买皮沙发的用户推荐粘毛刷。
本教程的目标
在本教程中,我将:
1.将数据集向量化 存入向量数据库,用于测试 语义搜索、相似度搜索 和 RAG(基于向量的检索);2.将数据转化为知识图谱,用于测试 语义搜索、相似度搜索 和 RAG(提示词转查询检索)。虽然这实际上更像是 直接查询检索,因为我直接使用了 SPARQL,而不是让 LLM 将自然语言提示转化为 SPARQL 查询;3.将包含知识图谱标签和 URI 的数据集向量化 并存入向量数据库(我称之为“向量化的知识图谱”),然后测试 语义搜索、相似度搜索 和 RAG(混合方法)。
本教程的目标是说明知识图谱和向量数据库在这些能力方面的差异,并展示它们如何协同工作。
下图是一个高层次概览,展示了向量数据库和知识图谱如何结合起来执行高级查询操作。
如果你不想继续往下读,这里是简要总结(TL;DR):
•向量数据库可以很好地进行语义搜索、相似度计算以及某些基本形式的 RAG,但有一些注意事项。第一个注意事项是:我使用的数据包含期刊文章的摘要,也就是说,它包含了大量非结构化文本。向量化模型主要在非结构化数据上训练,因此当实体关联的是文本块时,效果会更好。•话虽如此,将数据导入向量数据库并准备好进行查询的成本非常低。如果你的数据集中包含一些非结构化内容,你可以在 15 分钟内完成向量化并开始搜索。•不出意料地,单独使用向量数据库的最大缺点之一就是缺乏可解释性。返回的结果中可能有三个是很好的,但有一个却毫无意义,而且你没有办法知道为什么那个结果会被返回。•向量数据库返回无关内容的可能性在搜索和相似度计算中可能只是个小麻烦,但在 RAG 中就是个大问题。如果你用四篇文章来补充提示词,其中有一篇是完全无关的内容,那么 LLM 的回答就会产生误导。这种情况通常被称为“上下文污染(context poisoning)”。•上下文污染特别危险的一点是,LLM 的回答可能并没有事实错误,也不是基于错误的数据,而是基于“错误的数据类型”来回答你的问题。例如在本教程中的一个例子中,提示词是“mouth neoplasms(口腔肿瘤)的治疗方法”,但检索到的一篇文章是关于直肠癌治疗的研究,随后被发送给 LLM 进行摘要。我不是医生,但我可以肯定直肠不属于口腔。LLM 准确地总结了该研究以及不同治疗方案对口腔和直肠癌的影响,但并不总是指出是哪种癌症。于是用户可能毫无察觉地在阅读一个 LLM 对直肠癌治疗方案的描述,而最初的问题是关于口腔癌的。•知识图谱在语义搜索和相似度搜索中的效果,很大程度上取决于元数据的质量,以及这些元数据所连接的受控词汇。在本教程中的示例数据集里,期刊文章都已经用主题词进行了标注。这些主题词来自美国国立卫生研究院(NIH)提供的医学主题词表(MeSH)。正因为如此,我们可以非常轻松地进行语义搜索和相似度分析。•将知识图谱直接向量化并导入向量数据库作为 RAG 的知识基础库,可能会带来一定好处,但我在本教程中并没有这样做。我只是将数据以表格格式向量化,并为每篇文章添加了一个 URI 列,以便可以将向量与知识图谱连接起来。•使用知识图谱进行语义搜索、相似度计算和 RAG 的最大优势之一是可解释性。你总是可以解释某些结果为什么会被返回:因为它们被标注了某些概念,或者具有某些元数据属性。•知识图谱的另一个我原本没有预料到的好处,有时被称为“增强数据丰富性”或“图谱即专家”——你可以用知识图谱来扩展或细化你的搜索词。例如,你可以找到与你的搜索词相关的同义词、更具体的词,或者有特定关系的词,从而扩展或精细化你的查询。例如,我可能一开始是搜索“口腔癌”,但根据知识图谱中的术语和关系,进一步细化为“龈部肿瘤(gingival neoplasms)和腭部肿瘤(palatal neoplasms)”。•使用知识图谱的最大障碍之一是:你需要先构建一个图谱。不过,好消息是现在有很多方法可以用 LLM 加快构建知识图谱的过程(如上文图 1 所示)。•仅使用知识图谱的一个缺点是:你需要自己写 SPARQL 查询来完成所有操作。这也解释了上文所述提示词转查询检索方法的受欢迎程度。•在知识图谱中使用 Jaccard 相似度来查找相似文章的效果很差。如果没有进行特别指定,图谱会返回一些具有标签重叠的文章,比如“老年人”、“男性”和“人类”,这些标签可能远不如“治疗方案”或“口腔肿瘤”相关。•我遇到的另一个问题是,计算 Jaccard 相似度非常耗时(大概花了 30 分钟)。我不知道有没有更好的方法(欢迎建议),但我猜测在 1 万篇文章中寻找标签重叠是非常消耗计算资源的。•在本教程中,我使用的提示词非常简单,例如“总结这些文章”——这意味着 LLM 的回答准确性(无论是向量检索还是图谱检索)更依赖于检索过程而非生成过程。换句话说,只要你给 LLM 提供了相关的上下文,它几乎不会搞错这种简单的“总结”类任务。当然,如果提示词是更复杂的问题,那情况就会不一样。•使用向量数据库进行初步检索,再使用知识图谱进行筛选,是表现最好的方法。这其实也不奇怪——你不会通过筛选来让结果变差。但关键在于:知识图谱本身不一定能提高结果质量,它提供的是一种控制输出以优化结果的能力。•利用知识图谱对结果进行筛选可以提高提示词相关性的准确度,也可以根据提示词提出者进行个性化定制。例如,我们可能希望用相似度搜索来找出适合向用户推荐的相关文章,但只希望推荐用户有权限访问的文章。知识图谱就可以实现查询时的访问控制。•知识图谱还可以帮助减少上下文污染的可能性。在上文的 RAG 示例中,我们可以在向量数据库中搜索“mouth neoplasms 的治疗方法”,但随后只保留那些被打上“mouth neoplasms”或相关标签的文章。•本教程中我只演示了一种简单的实现方式:将提示词直接送入向量数据库,然后使用图谱对结果进行筛选。其实还有更好的方法。例如:•从提示词中提取实体,与受控词表匹配后用知识图谱扩展(如同义词和更具体术语);•将提示词解析为语义片段分别送入向量数据库;•将 RDF 数据转为文本再进行向量化,以提升语言模型的理解力;这些是我计划在未来的文章中继续探讨的内容。
第一步:基于向量的检索(Vector-based retrieval)
下图展示了整体的高层次计划。我们希望将期刊文章的摘要和标题向量化,存入向量数据库,以便运行不同类型的查询:语义搜索、相似度搜索,以及一个简单版本的 RAG。
•对于语义搜索,我们将测试像 “mouth neoplasms(口腔肿瘤)” 这样的术语 —— 向量数据库应该返回与该主题相关的文章。•对于相似度搜索,我们将使用某一文章的 ID,在向量空间中查找其最近邻,也就是与这篇文章最相似的文章。•最后,向量数据库还支持一种形式的 RAG,我们可以将类似“请像对一个没有医学学位的人解释这个”的提示词,与一篇文章一起提供给 LLM 来补充上下文。
我决定使用 PubMed 仓库[7]中这份包含 50,000 篇研究文章的数据集(许可协议:CC0 公共领域[8])。该数据集包含文章标题、摘要,以及一个元数据标签字段。这些标签来自医学主题词表(MeSH)受控词汇表。
在本教程的这一部分中,我们仅使用摘要和标题。这是因为我们要比较向量数据库和知识图谱,而向量数据库的优势在于它能够在没有丰富元数据的情况下“理解”非结构化数据。
我只使用了前 10,000 条数据,以加快计算速度。
👉 Weaviate 的官方快速入门教程[9]
我还发现这篇文章[10]对于入门很有帮助。
from weaviate.util import generate_uuid5
接下来,我们可以建立与 Weaviate 集群的连接:
client = weaviate.Client(
在将数据向量化并写入向量数据库之前,我们需要先定义 schema(模式)。这里我们定义了要从 CSV 文件中向量化的列。 如前所述,在本教程的开始阶段,我只打算向量化标题(title)和摘要(abstract)这两列。
class_obj ={
然后,我们将这个 schema 推送到我们的 Weaviate 集群中:
client.schema.create_class(class_obj)
你可以通过查看 Weaviate 控制台界面来确认 schema 是否成功创建。
现在,我们已经定义好了 schema,就可以将所有数据写入向量数据库了。
import logging
要检查数据是否成功写入集群,可以运行以下命令:
client.query.aggregate("articles").with_meta_count().do()
出于某种原因,我的 10,000 行数据中只有 9997 行被向量化了。
使用向量数据库进行语义搜索(Semantic search using vector database)
当我们谈到在向量数据库中进行“语义”搜索时,我们的意思是:术语会通过 LLM API 向量化映射到向量空间中,而这些 API 是在大量非结构化内容上训练得到的。这意味着向量会考虑术语的上下文关系。
例如,如果在训练数据中,“Mark Twain(马克·吐温)”多次出现在“Samuel Clemens(塞缪尔·克莱门斯)”附近,那么这两个术语的向量在向量空间中应当彼此接近。同样,如果“口腔癌(Mouth Cancer)”在训练数据中经常与“口腔肿瘤(Mouth Neoplasms)”一起出现,那么一篇关于口腔癌的文章,其向量应当靠近一篇关于口腔肿瘤的文章的向量。
你可以通过运行一个简单的查询来验证是否有效:
response =(
查询结果如下:
•文章 1:“Gingival metastasis as first sign of multiorgan dissemination of epithelioid malignant mesothelioma.”
这篇文章讲述的是一项关于恶性间皮瘤(一种肺癌形式)扩散至牙龈的研究。研究测试了不同治疗方法(如化疗、胸膜剥脱术和放疗)对该癌症的影响。
这是一篇非常合适的返回结果 —— 它涉及牙龈肿瘤(gingival neoplasms),而牙龈肿瘤是口腔肿瘤(mouth neoplasms)的一个子类。•文章 2:“Myoepithelioma of minor salivary gland origin. Light and electron microscopical study.”
这篇文章讲述的是从一个 14 岁男孩的牙龈中切除的一种肿瘤,该肿瘤已经扩散到上颌部分,由起源于唾液腺的细胞组成。
这同样是一个合适的返回结果 —— 它描述的是一个从口腔中切除的肿瘤。•文章 3:“Metastatic neuroblastoma in the mandible. Report of a case.”
这篇文章是关于一位 5 岁男孩下颌出现癌症的病例研究。它确实讲的是癌症,但严格意义上讲不属于口腔癌 —— 下颌肿瘤(mandibular neoplasms)不是 MeSH 词表中口腔肿瘤的子类。
这就是我们所说的语义搜索 —— 这些文章的标题和摘要中都没有出现“mouth(口腔)”这个词:
•第一篇文章讲的是牙龈肿瘤(gingival neoplasms),这是口腔肿瘤的一个子类;•第二篇讲的是起源于唾液腺的牙龈肿瘤,唾液腺和牙龈肿瘤都属于口腔肿瘤的范畴;•第三篇讲的是下颌肿瘤,虽然从解剖位置上接近口腔,但根据 MeSH 术语不属于口腔肿瘤。
尽管如此,向量数据库仍然“理解”了下颌与口腔在语义上的相似性,这正是其语义检索能力的体现。
使用向量数据库进行相似度搜索(Similarity search using vector database)
我们还可以使用向量数据库来查找相似的文章。我选择了一篇在上面“mouth neoplasms(口腔肿瘤)”查询中返回的文章,标题为:
“Gingival metastasis as first sign of multiorgan dissemination of epithelioid malignant mesothelioma.”
使用这篇文章的 ID,我们可以在向量数据库中查询所有与之相似的实体:
response =(
返回结果按相似度排序。相似度是通过在向量空间中的“距离”来计算的。 正如你所见,排名第一的就是这篇“Gingival”文章 —— 毕竟,一篇文章与自身的相似度是最高的。
其他返回的相关文章包括:
•文章 4:“Feasability study of screening for malignant lesions in the oral cavity targeting tobacco users.”
这篇文章与口腔癌相关,但重点在于如何让吸烟者参与癌症筛查,而不是研究治疗方法。•文章 5:“Extended Pleurectomy and Decortication for Malignant Pleural Mesothelioma Is an Effective and Safe Cytoreductive Surgery in the Elderly.”
本文是关于在老年人中通过胸膜切除术和剥脱术治疗恶性胸膜间皮瘤(肺部癌症)的一项研究。
虽然它的主题是间皮瘤的治疗,因此在主题上与“牙龈肿瘤”文章有些相似,但它并不涉及牙龈或口腔癌。•文章 3(上文提到):“Metastatic neuroblastoma in the mandible. Report of a case.”
再次出现的是关于那位患下颌神经母细胞瘤的 5 岁男孩的病例。这确实是癌症相关,但严格来说不是口腔癌,也不是真正关于治疗效果的研究,和“牙龈肿瘤”文章的主旨不同。
可以说,这些文章与我们最初的“牙龈肿瘤”文章在某种程度上是相似的。但要判断它们具体有多相似、相似搜索的效果到底如何,其实很大程度上取决于用户对“相似”的定义:
•如果你关注的是其他关于间皮瘤治疗的文章,而原文中“癌症扩散到牙龈”这一点并不重要,那么文章 5是最相似的。•如果你更关心任何形式的口腔癌,包括治疗和预防,那么文章 4会更相似。
向量数据库的一个缺点是:它像一个“黑箱” ——
我们无法知道这些文章为何被选中返回,也无法明确判断向量搜索是基于哪些特征做出“相似性判断”的。
使用向量数据库实现检索增强生成(RAG)
下面是一个使用向量数据库进行检索,然后将结果发送给大语言模型(LLM)进行摘要的示例 —— 这就是 RAG 的典型用法。
response =(
你可以看到返回结果如下:
“当然!这篇文章讲述了一个人患有一种被称为上皮型恶性间皮瘤的癌症的案例。这种癌症通常起始于肺或腹部的膜层。但在这个案例中,癌症扩散到身体其他部位的首个迹象是出现在牙龈上(即牙龈转移)。
癌症转移意味着癌细胞已经从原始肿瘤扩散到了身体其他部位。在这个案例中,癌症先扩散到了牙龈,然后再扩散到其他器官。这很重要,因为这表明癌症在被发现之前已经是晚期,并且已经扩散到多个器官。
总体而言,这篇文章强调了癌症早期检测和监测的重要性,以及癌症可能会扩散到意想不到的身体部位。”
实际上,我对这个回答有些失望。 摘要中并没有体现文章的核心信息 —— 原文摘要明确说明这是一项针对 13 名患有转移性恶性间皮瘤患者的治疗研究,涵盖了不同治疗方法及其结果。 而生成的 RAG 输出却只说成是“一个人”的案例,完全没有提到这是一个研究性文章。
我们不要只总结一篇文章,而是尝试对多篇文章进行汇总。 在下一个示例中,我们使用相同的搜索关键词(Mouth Neoplasms),然后将排名前 3 的文章连同以下提示词一起发送给 LLM:“请用项目符号列出这些文章的关键信息,使其对没有医学背景的人也容易理解。”
response =(
返回结果如下:
-恶性间皮瘤转移至口腔较为罕见,且多发生在颌骨而非软组织
我认为这个结果比之前的回答要好得多 —— 它提到了第 1 篇文章中的研究内容、治疗方法和结局。 倒数第二条项目符号是对“起源于小唾液腺的肌上皮瘤(Myoepithelioma)”那篇文章的描述,看起来是准确的单句总结。最后一条是关于前面提到的第 3 篇文章(下颌神经母细胞瘤病例),同样是准确的一行摘要。
👍 这一结果更符合我们期望的 RAG 输出,涵盖了多个结果并体现出其关键信息。
第 2 步:使用知识图谱进行数据检索
以下是我们如何使用知识图谱进行语义搜索、相似性搜索和 RAG 的高级概览:
使用知识图谱检索数据的第一步是将数据转换为 RDF 格式。下面的代码会为所有数据类型创建类和属性,然后用文章和 MeSH 术语的实例进行填充。我还为发布日期和访问级别创建了属性,并为演示目的填充了一些随机值。
from rdflib importGraph, RDF, RDFS,Namespace,URIRef,Literal
使用知识图谱进行语义搜索(Semantic search using a knowledge graph)
现在我们可以测试语义搜索了。不过,“语义”这个词在知识图谱中的含义略有不同。
在知识图谱中,我们依赖的是文档所关联的标签(tags)及其在 MeSH 分类体系中的关系,来实现语义推理。例如,一篇文章可能是关于“唾液腺肿瘤”(Salivary Neoplasms,指唾液腺的癌症),但仍然被标记为“口腔肿瘤”(Mouth Neoplasms)。
我们不会只查询所有被标记为“口腔肿瘤”的文章,还会寻找所有比“口腔肿瘤”更窄的概念。MeSH 词表中不仅包含术语定义,还包含如“上位词(broader)”和“下位词(narrower)”这样的关系。
fromSPARQLWrapperimportSPARQLWrapper, JSON
以下是“口腔肿瘤(Mouth Neoplasms)”的所有替代名称和下位概念。
我们将其转化为一个平面的术语列表:
defflatten_concepts(concepts_dict):
然后我们将术语转换为 MeSH URI,以便将其包含在我们的 SPARQL 查询中:
# 将 MeSH 术语转换为 URI
接着,我们编写一个 SPARQL 查询,查找所有被标记为“口腔肿瘤(Mouth Neoplasms)”、其替代名称“口腔癌(Cancer of Mouth)”或任何下位术语的文章:
from rdflib importURIRef
如何学习大模型 AI ?
我国在AI大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着Al技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国Al产业的创新步伐。加强人才培养,优化教育体系,国际合作并进,是破解困局、推动AI发展的关键。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
2025最新大模型学习路线
明确的学习路线至关重要。它能指引新人起点、规划学习顺序、明确核心知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。
对于从来没有接触过AI大模型的同学,我帮大家准备了从零基础到精通学习成长路线图以及学习规划。可以说是最科学最系统的学习路线。
针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。
大模型经典PDF书籍
新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路!
配套大模型项目实战
所有视频教程所涉及的实战项目和项目源码等
博主介绍+AI项目案例集锦
MoPaaS专注于Al技术能力建设与应用场景开发,与智学优课联合孵化,培养适合未来发展需求的技术性人才和应用型领袖。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
为什么要学习大模型?
2025人工智能大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。
适合人群
- 在校学生:包括专科、本科、硕士和博士研究生。学生应具备扎实的编程基础和一定的数学基础,有志于深入AGI大模型行业,希望开展相关的研究和开发工作。
- IT行业从业人员:包括在职或失业者,涵盖开发、测试、运维、产品经理等职务。拥有一定的IT从业经验,至少1年以上的编程工作经验,对大模型技术感兴趣或有业务需求,希望通过课程提升自身在IT领域的竞争力。
- IT管理及技术研究领域人员:包括技术经理、技术负责人、CTO、架构师、研究员等角色。这些人员需要跟随技术发展趋势,主导技术创新,推动大模型技术在企业业务中的应用与改造。
- 传统AI从业人员:包括算法工程师、机器视觉工程师、深度学习工程师等。这些AI技术人才原先从事机器视觉、自然语言处理、推荐系统等领域工作,现需要快速补充大模型技术能力,获得大模型训练微调的实操技能,以适应新的技术发展趋势。
课程精彩瞬间
大模型核心原理与Prompt:掌握大语言模型的核心知识,了解行业应用与趋势;熟练Python编程,提升提示工程技能,为Al应用开发打下坚实基础。
RAG应用开发工程:掌握RAG应用开发全流程,理解前沿技术,提升商业化分析与优化能力,通过实战项目加深理解与应用。
Agent应用架构进阶实践:掌握大模型Agent技术的核心原理与实践应用,能够独立完成Agent系统的设计与开发,提升多智能体协同与复杂任务处理的能力,为AI产品的创新与优化提供有力支持。
模型微调与私有化大模型:掌握大模型微调与私有化部署技能,提升模型优化与部署能力,为大模型项目落地打下坚实基础。
顶尖师资,深耕AI大模型前沿技术
实战专家亲授,让你少走弯路
一对一学习规划,职业生涯指导
- 真实商业项目实训
- 大厂绿色直通车
人才库优秀学员参与真实商业项目实训
以商业交付标准作为学习标准,具备真实大模型项目实践操作经验可写入简历,支持项目背调
大厂绿色直通车,冲击行业高薪岗位
文中涉及到的完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】

为武汉地区的开发者提供学习、交流和合作的平台。社区聚集了众多技术爱好者和专业人士,涵盖了多个领域,包括人工智能、大数据、云计算、区块链等。社区定期举办技术分享、培训和活动,为开发者提供更多的学习和交流机会。
更多推荐
所有评论(0)