在数字化转型向深水区迈进的当下,智能客服与智能外呼系统已从“辅助工具”升级为企业优化服务成本、提升客户满意度的核心基础设施。这类系统依托多轮对话技术,精准模拟真人交互逻辑,不仅能实现7×24小时不间断的即时答疑与业务办理,还能主动触达客户并深度挖掘潜在需求,在金融、电商、政务等多个领域展现出广阔的应用前景。

图片

当前主流的智能对话系统,通常遵循一套标准化的技术流程来实现交互功能,其核心运作链路如下图所示:

图片

  1. 语音输入与转写:系统首先借助ASR(自动语音识别) 技术,将客户的语音信号实时、精准地转化为可处理的文本数据,这是实现人机交互的基础环节。
  2. 语义理解与增强:考虑到智能客服/外呼场景中存在大量行业术语(如金融领域的“定投”、物流领域的“中转仓”),转写后的文本会经过热词替换、歧义消除等预处理(例如将口语化的“哗啦啦”修正为物流术语“货拉拉”),确保关键信息不丢失、专业术语无偏差,为后续语义理解筑牢基础。
  3. 结合大模型生成应答:系统一方面利用大型语言模型(LLM)构建的Agent对话能力保障交互流畅性,另一方面通过RAG(检索增强生成) 技术从企业专属知识库中调取与当前问题高度相关的信息,最终生成贴合企业业务逻辑的回复文本。
  4. 语音输出:生成的文本回复通过流式TTS(文本转语音) 技术,合成自然度高、语调流畅的语音,实时反馈给客户,完成一轮完整的人机交互闭环。

然而,即便经过多环节优化,当前系统仍面临两大核心痛点,制约着用户体验的进一步提升:

  • 上下文割裂:回复仅针对用户当前单句问题,未充分关联历史对话内容,导致在多轮交互中频繁出现“答非所问”的情况,例如用户先询问“会员续费流程”,后续追问“续费时能否用优惠券”,系统可能仍重复解释续费步骤,忽略优惠券相关诉求。
  • 回复同质化:部分相似问题会触发完全一致的回复内容,人机交互感强烈,缺乏个性化与灵活性,难以满足用户对“拟人化沟通”的需求。

正是这些痛点,使得当前基于LLM的Agent无法达到业务专家的交互水平——既不能精准捕捉用户潜在意图,也难以通过多轮引导推动任务完成,回复的自然度与专业性和人类专家存在明显差距。

图片

如何缩小这一差距,让Agent真正“吸收”业务专家的经验与策略?这一问题始终是智能对话领域的研究重点。随着LLM通用能力的持续迭代与RAG技术的成熟,我们联合AWS共同研发出CID-GraphRAG(对话意图驱动的图检索增强系统) 。该系统创新性地将基于图结构的意图匹配技术与语义搜索技术深度融合,构建起具备多维度评分机制的双路径检索架构,为解决传统RAG的局限提供了全新思路。

一、CID-GraphRAG框架的核心创新

CID-GraphRAG的核心价值在于,通过融合Conversation RAG(对话式检索)与GraphRAG(图式检索)的优势,同时解决多轮客服对话中的“上下文连贯性”与“目标导向性”难题。与传统RAG相比,其创新点主要体现在以下三方面:

1. 双层意图图谱(IntentGraph):动态复刻专家交互逻辑

不同于传统GraphRAG中静态的知识节点,CID-GraphRAG创新性地提出“双层意图节点”概念。系统会从业务专家的历史优质对话数据中,自动提取每一轮交互的“用户意图-助理意图”流转关系,例如“用户咨询退款(用户意图)→ 助理引导提供订单号(助理意图)→ 用户提供订单号(用户意图)→ 助理告知退款进度(助理意图)”,最终构建出动态、可迭代的领域专家意图流转图谱。这一图谱本质上是对专家交互策略的数字化复刻,为Agent提供了“类专家”的决策依据。

2. 双层检索机制:意图与语义的协同检索

传统RAG系统往往依赖单一检索路径:要么仅通过语义相似度(Conversation RAG)匹配文本,易受表述差异影响;要么依赖静态知识图谱(GraphRAG),难以适应动态对话场景。而CID-GraphRAG的双层检索机制实现了“双向互补”:

  • 意图检索路径负责“把握方向”,确保每一步回复都围绕对话目标推进;
  • 语义检索路径负责“贴合语境”,保障回复与当前对话上下文的连贯性。
    两者协同工作,实现自适应的精准检索,既提升了检索效率,又避免了单一检索的局限性。

3. 融合多维度信息的回复生成:兼顾策略与自然度

在回复生成阶段,CID-GraphRAG会将双层检索得到的优质对话案例作为Few-shot示例,同时融入“用户当前意图”“助理历史意图”与“对话记忆”三大核心信息。这种多维度信息融合的生成方式,使得回复不仅能精准匹配用户需求,还能延续对话的逻辑脉络,达到“既专业又自然”的效果。例如,面对用户“这个月话费为什么突然变高”的疑问,系统不仅会解释费用构成(语义匹配),还会主动询问“是否需要帮您查询近3个月的消费明细”(意图引导),复刻专家的主动服务意识。

图片

如上图所示,CID-GraphRAG的运作流程分为“构建阶段”与“推理阶段”,各阶段的核心任务如下:

  • 构建阶段:以专家优质对话数据为基础,通过LLM提取每轮对话的双端意图,搭建意图流转图谱,并存储历史意图序列与对话示例,形成系统的“经验库”。
  • 推理阶段
    1. 意图识别:沿用构建阶段的LLM模型,从实时对话中提取用户与助理的当前意图;
    2. 双层检索:基于提取的意图,在意图图谱中匹配相似意图流转路径(意图检索),同时在对话库中匹配语义相似的历史案例(语义检索),筛选出最优候选示例;
    3. 回复生成:以候选示例为Few-shot,结合对话记忆与双端意图,通过LLM生成最终回复。

二、意图图谱的构建:从数据到图谱的精细化落地

意图图谱是CID-GraphRAG的“核心大脑”,其构建质量直接决定了系统的交互效果。我们通过四步精细化流程,实现从原始数据到高可用图谱的转化:

1. 优质语料收集:聚焦“成功案例”

语料是图谱构建的基础,我们优先收集业务专家在真实场景中达成业务目标的多轮对话数据(如成功解决投诉、完成产品推荐、引导用户办理业务等)。这些数据覆盖了不同业务场景(如售前咨询、售后问题、业务办理)、用户多样化问法(口语化、书面化、碎片化)以及专家的应对策略(安抚话术、引导技巧、专业解答),为图谱提供了“高质量素材”。

2. 数据清理:去除噪音,保障精准

原始对话数据(尤其是ASR转写数据)中常存在噪音,例如语音识别错误(“流量包”误转为“流浪包”)、无效对话(用户重复表述、无意义停顿)、敏感信息(用户手机号、银行卡号)。我们通过“规则过滤+人工校验”的方式,对原始语料进行清洗:

  • 利用正则表达式修正常见识别错误;
  • 剔除无实质内容的对话片段;
  • 对敏感信息进行脱敏处理,最终得到“干净、可用”的标准化语料。

3. LLM意图提取:双层分类,精准拆解

采用具备强语义理解能力的LLM(如GPT-4、Claude 3),对清洗后的每一轮对话进行“双端双层意图提取”:

  • 双端:同时提取“用户意图”(用户想表达的需求)与“助理意图”(助理的应对目标);
  • 双层:将意图分为“一级意图”(核心类别)与“二级意图”(细分需求),例如:
    • 用户说“我的信用卡账单不对,想查一下明细”,其一级意图为“账单查询”,二级意图为“账单异议核查”;
    • 助理回复“请提供您的信用卡尾号后4位,我帮您查询”,其一级意图为“信息核验”,二级意图为“引导提供卡号”。

这种双层分类方式,既确保了意图的宏观准确性,又兼顾了微观精细度。

4. 图谱搭建:以意图为节点,以流转为边

在提取完所有对话的双端双层意图后,我们以“意图”为节点、“意图流转关系”为边,搭建意图流转图谱:

  • 节点:每个节点对应一个“双层意图”(如“用户意图-账单查询-账单异议核查”“助理意图-信息核验-引导提供卡号”);
  • :若某一轮对话中,“用户意图A”后紧跟“助理意图B”,则在A与B之间建立一条边,并标注该流转关系的出现频次;
  • 关联信息:为每个意图节点关联对应的“优秀话术示例”,例如“助理意图-信息核验-引导提供卡号”节点下,关联“麻烦您提供一下信用卡尾号后4位,我马上为您查询账单明细~”等专家话术。

最终形成的图谱,不仅能展示意图间的流转逻辑,还能为后续检索提供“话术参考”。

图片

(延伸)双层意图的价值:解决语义混淆难题

传统GraphRAG仅采用一级意图构建图谱,在多轮对话中易出现“语义冲突”。例如,用户说“好的”,在不同场景下含义完全不同:

  • 若上下文是“您方便明天上门维修吗?”,“好的”对应“同意维修时间”;
  • 若上下文是“非常抱歉给您带来不便,我们会补偿50元优惠券”,“好的”对应“接受道歉与补偿”。

而双层意图通过“一级意图定方向、二级意图定细节”,完美解决这一问题:

  • 一级意图(Primary Intent):明确对话的核心类别,例如“预约确认”“投诉处理”,实现快速分类与路由,避免大类意图混淆;
  • 二级意图(Secondary Intent):在一级意图下细分具体需求,例如“同意时间”“接受道歉”,确保对用户意图的精准理解。

这种设计从根本上避免了传统系统“一词多义”导致的误判,为后续检索与回复生成提供了精准的意图依据。

图片

(创新点)聚合意图对:提升推理效率

为进一步优化图谱的查询效率,我们提出“聚合意图对”概念:将某一轮对话中的“用户二级意图+助理二级意图”聚合为一个唯一的“意图对节点”(如“账单异议核查+引导提供卡号”)。

这一设计的核心价值在于:在多轮对话推理中,系统只需根据当前“意图对节点”,即可快速查询到用户“下一个可能的二级意图”(如“提供卡号”),无需遍历所有单一意图节点,大幅简化了图谱的查询逻辑,提升了推理阶段的响应速度。

图片

三、双层RAG检索机制:意图与语义的协同增效

传统RAG的核心局限在于“单一检索路径无法兼顾目标与语境”,而CID-GraphRAG的双层检索机制通过“意图+语义”的双路径协同,实现了“既懂方向,又懂语境”的检索效果。

图片

1. 意图匹配路径:把握对话目标,复刻专家策略

意图匹配路径的核心是“基于意图图谱的策略性检索”:

  • 检索逻辑:根据意图识别模块提取的“当前双端两级意图”,在意图流转图谱中查询“与当前意图关联最紧密的下一个助理意图”,检索依据是“意图流转的出现频次fi”——频次越高,说明该流转路径越符合专家的交互策略;
  • 核心价值:这一路径赋予系统“类专家的策略思维”,确保每一次回复都不是被动应答,而是主动推进对话目标(如引导用户提供信息、解决用户核心诉求)。例如,当用户意图为“账单异议核查”时,系统会优先检索“引导提供卡号”的助理意图,而非随机回复,从根本上避免对话“漫无目的”。

2. 语义匹配路径:贴合对话语境,保障连贯自然

语义匹配路径沿用经典的对话式检索逻辑,核心是“基于文本相似度的语境匹配”:

  • 检索逻辑:将当前对话的上下文(如用户历史提问、助理历史回复)转化为向量,与知识库中的对话示例向量进行余弦相似度计算(si),筛选出语义最相似的案例;
  • 核心价值:确保回复与当前对话语境高度贴合,避免“上下文割裂”。例如,用户先询问“会员有什么权益”,后续追问“这些权益怎么激活”,语义检索会优先匹配“权益激活”相关的案例,而非重复解释权益内容,保障对话的连贯性。

3. 双层检索加权:多维度评分,筛选最优结果

意图匹配与语义匹配得到的结果并非直接使用,而是通过“加权评分”计算综合得分,公式如下:
综合得分 = α × 意图匹配得分(fi标准化后) + (1-α) × 语义匹配得分(si)
其中,α为可配置参数(取值范围0-1),可根据业务场景调整权重:

  • 若业务更注重“目标导向”(如投诉处理、业务办理),可提高α值(如α=0.6),增强意图匹配的影响力;
  • 若业务更注重“语境自然”(如售前咨询、闲聊互动),可降低α值(如α=0.4),强化语义匹配的作用。

通过加权评分,系统会从两类检索结果中筛选出综合得分最高的Top-K条优质对话案例与候选意图,作为后续回复生成的核心参考。这种“双路径加权融合”的方式,既避免了单一意图检索可能导致的“脱离语境”,也解决了单一语义检索可能出现的“目标模糊”,从底层提升了检索结果的精准性与适用性。

图片

四、回复生成:多维度信息融合,复刻专家级交互

CID-GraphRAG的回复生成环节,并非简单拼接检索结果,而是通过“多维度信息注入”,让Agent生成既符合业务逻辑、又贴合对话语境的回复,真正实现“专家级”交互效果。其核心在于构建更全面的Prompt输入,具体包含五大关键模块:

1. 用户问题(User Question):锚定当前需求

直接输入用户当前轮次的提问文本,确保系统明确“用户当下最核心的诉求”。例如用户当前提问“我的订单显示已发货,但三天了还没物流信息”,该模块即精准传递这一即时需求,避免回复偏离主题。

2. 对话记忆(Memory):关联历史语境

将当前对话的历史交互记录(如用户此前提供的订单号、助理已告知的发货时间)整合为“对话记忆”,注入Prompt中。这一模块解决了传统系统“上下文割裂”的痛点,例如助理可基于记忆回复“您之前提到的订单号为12345的商品,目前物流信息延迟更新,我已帮您联系快递公司,预计1小时内会同步最新进度”,让回复更具连贯性与针对性。

3. 用户意图(User Intent):洞察潜在需求

将LLM提取的“用户双层意图”(如一级意图“物流查询”、二级意图“物流延迟申诉”)明确写入Prompt,帮助系统超越“表面问题”,洞察用户的潜在期望。例如用户虽仅询问物流信息,但二级意图显示其隐含“对延迟的不满”,系统可在回复中同步安抚“非常理解您等待的焦急心情,我们会优先跟进您的订单物流”,提升用户满意度。

4. 优质示例(Few-Shot):复刻专家策略

将双层检索得到的Top-K条优质对话案例(如专家此前处理“物流延迟”问题的话术)作为Few-Shot示例注入Prompt。这些示例包含“用户问题-专家回复-意图流转逻辑”的完整链路,系统可通过模仿示例中的应对策略,生成符合业务规范的专业回复。例如示例中专家会“先安抚→再查物流→最后给解决方案”,系统便会沿用这一逻辑,避免回复逻辑混乱。

5. 生成指令(Instructions):规范回复风格

明确写入回复生成的规则与风格要求,例如“语气亲切自然,避免使用专业术语;需包含物流查询结果与解决方案;若无法即时解决,需告知用户后续跟进时间”。这一模块确保回复不仅精准,还能贴合企业的服务调性,统一用户体验。

图片

通过上述五大模块的融合,LLM生成的回复不再是“机械的信息堆砌”,而是具备“策略性、连贯性与同理心”的专家级应答。例如针对“物流延迟”问题,系统最终可能生成:“您好!您订单号12345的商品目前因快递公司分拣延迟,物流信息暂未更新(关联记忆与问题)。非常抱歉给您带来不便(呼应用户潜在不满),我已为您发起物流优先核查申请,预计1小时内会同步最新进度,后续有任何问题也可以随时联系我(复刻专家解决方案)~”

五、效果评估:多维度验证,性能全面领先

为客观验证CID-GraphRAG的优势,我们选取126个覆盖“售前咨询、售后问题、业务办理”三大场景的真实测试用例,将其与当前主流方案(Direct LLM:纯大模型生成、Intent RAG:纯意图检索、Conversation RAG:纯语义检索)进行对比实验,从“LLM偏好评估”与“自动评价指标”两大维度展开分析,结果均证明CID-GraphRAG的性能优势。

1. LLM偏好评估:人类级判断下的优势

采用具备人类对齐能力的LLM(如GPT-4 Turbo)作为“评估者”,从“检索相关性”(检索结果是否匹配需求)与“回复质量”(回复是否精准、自然、有策略)两个维度,对四种方案的输出进行打分,最终统计各方案的“获胜次数”(即评估者认为该方案表现最优的次数)。

  • 检索质量(Retrieval Wins):CID-GraphRAG以73次获胜遥遥领先,远超Conversation RAG的51次、Intent RAG的32次与Direct LLM的10次。这表明,双层检索机制能更精准地定位到与需求匹配的知识,从源头解决“检索不准”的问题。
  • 回复质量(Response Wins):CID-GraphRAG同样以60次获胜位居第一,Conversation RAG为38次、Direct LLM为37次、Intent RAG仅23次。这意味着,基于优质检索结果生成的回复,在“精准度、连贯性、策略性”上更符合人类专家的判断标准,有效提升了用户体验。

图片

2. 自动评价指标:量化数据下的全面领先

为进一步量化性能差异,我们采用自然语言处理领域常用的自动评价指标,从“检索质量”与“回复生成质量”两方面进行评估:

(1)检索质量评估
  • 文本匹配指标(BLEU、ROUGE):衡量检索结果与“理想专家回复”的字面重合度。CID-GraphRAG的BLEU-4得分达0.62,ROUGE-L得分达0.71,均高于Conversation RAG(BLEU-4=0.51,ROUGE-L=0.63)、Intent RAG(BLEU-4=0.45,ROUGE-L=0.58)与Direct LLM(BLEU-4=0.32,ROUGE-L=0.41),证明其检索结果在“内容精准度”上更优。
  • 语义相似度指标(METEOR、BERTSCORE):衡量检索结果与理想回复的深层语义契合度。CID-GraphRAG的METEOR得分达0.58,BERTSCORE得分达0.83,显著领先其他方案,说明其检索结果不仅“字面相似”,更实现了“语义对齐”,避免了“望文生义”的错误。
(2)回复生成质量评估

从指标结果可清晰看出性能层级:CID-GraphRAG > Conversation RAG > Intent RAG > Direct LLM。其中,CID-GraphRAG的BERTSCORE得分(0.85)较Conversation RAG(0.72)提升18%,较Direct LLM(0.59)提升44%,充分证明其回复在“语义连贯性与专业性”上的优势。

更值得关注的是,Conversation RAG虽采用检索增强技术,但其回复质量与Direct LLM几乎持平(获胜次数仅差1次),而CID-GraphRAG通过“意图+语义”的融合,较Conversation RAG实现了58%的相对提升。这一数据印证了“意图组件与语义检索的协同效应”——即使仅引入少量意图信息,也能大幅突破传统RAG的性能瓶颈。

图片

六、总结与未来展望

1. 核心价值总结

针对传统RAG在多轮客服对话中“上下文割裂、目标导向弱、回复同质化”的痛点,CID-GraphRAG通过三大创新实现突破:

  • 架构创新:融合意图图谱与语义检索,构建双路径检索架构,兼顾“目标导向”与“语境连贯”;
  • 意图建模创新:提出双层意图与聚合意图对概念,解决语义混淆问题,提升推理效率;
  • 生成逻辑创新:多维度信息融合的Prompt设计,让回复兼具专业性、自然度与策略性。

实验数据表明,CID-GraphRAG在检索质量与回复质量上均全面领先主流方案,较传统对话RAG实现58%的应答质量提升,为知识密集型对话场景(如智能客服、行业咨询)提供了更优的技术范式。

2. 未来探索方向

尽管CID-GraphRAG已展现出显著优势,但仍有两大方向值得深入探索:

(1)强化学习(RL)的深度整合

当前系统的意图流转图谱与检索权重,主要依赖历史优质对话的监督学习构建,缺乏动态优化能力。未来可引入强化学习技术,以“用户满意度、对话完成率、业务转化率”为奖励信号,动态调整意图流转概率与检索权重α值:

  • 例如,若某类意图流转路径的用户满意度持续偏低,系统可自动降低其权重;
  • 若某一α值配置在“售后场景”中表现更优,系统可自适应将其应用于同类场景,实现“持续自我迭代”。
(2)跨领域适应性拓展

目前CID-GraphRAG的评估主要聚焦于“车辆贴纸客服”单一领域,未来需验证其在更多场景的可迁移性:

  • 复杂任务导向场景:如金融领域的“贷款申请引导”、政务领域的“社保办理咨询”,需验证系统在长流程、多步骤对话中的表现;
  • 跨域交互场景:如用户同时咨询“手机套餐”与“智能家居联动”(跨通信与家电领域),需研究意图图谱的跨域融合机制,确保系统在多领域切换中仍能保持精准交互。

未来,随着技术的持续迭代,CID-GraphRAG有望进一步缩小“机器交互”与“人类专家”的差距,成为推动对话式AI在各行业深度落地的核心技术之一。

七、如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

在这里插入图片描述

八、为什么要学习大模型?

我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。

在这里插入图片描述

在这里插入图片描述

九、大模型入门到实战全套学习大礼包

1、大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

img


2、大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

在这里插入图片描述

3、AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

img

4、大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

img

5、大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

img

适用人群

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

Logo

更多推荐