核心前提:优化前先“问诊”,盲目动手只会事倍功半!

很多开发者在做RAG优化时,总习惯上来就堆砌策略——调参、换模型、加组件,但忙活半天却发现效果没提升,反而增加了系统复杂度。其实,RAG优化的第一步不是“做什么”,而是“明确要解决什么问题”,而建立一套科学的评估体系,正是定位问题的关键。没有量化的度量标准,所有“优化”都只是主观感受,无法判断效果好坏,更谈不上迭代改进。

img

一、先立规矩:RAG优化的四大核心评估指标

评估体系是RAG优化的“导航仪”,必须覆盖从检索到生成的全流程,核心关注四个维度:

  • 检索精度:召回的文档块是否“有用”?重点看两个指标——HR@K(前K个结果中是否包含至少一个相关文档)和MRR(相关文档在结果列表中的排名高低),前者衡量“有没有”,后者衡量“排得好不好”。
  • 生成质量:LLM输出的答案是否“好用”?需从准确性(是否符合事实)、相关性(是否紧扣问题)、流畅性(语言是否自然)三个角度判断,目前常用“LLM作为裁判”的方式自动化评估,比如用GPT-4对答案打分。
  • 真实性(Faithfulness):答案是否“靠谱”?核心检查是否存在“幻觉”——即答案内容是否完全来自检索到的文档,没有无中生有或编造信息。这是企业级RAG应用的底线,一旦出现幻觉,可能导致严重决策失误。
  • 延迟与成本:系统是否“实用”?优化不能只追求效果,还要兼顾落地性——响应延迟是否满足业务需求(比如客服场景需<1秒)、计算成本是否可控(比如嵌入生成、模型调用的算力开销),避免为了提升1%的精度,导致成本翻倍。

RAG优化的闭环逻辑:诊断问题(用评估指标找短板)→ 匹配策略(针对短板选优化方法)→ 验证效果(用评估指标测提升)→ 循环迭代(重复前三步,直到达标)。这套逻辑贯穿优化全程,避免走弯路。

img

二、层次一:基础优化——数据质量是RAG的“地基”

“垃圾进,垃圾出”是AI领域的铁律,RAG也不例外。如果喂给系统的原始数据混乱、分割不合理,后续再复杂的检索和生成策略也救不回来。这一层优化是性价比最高的,做好了能解决60%以上的基础问题。

1. 智能文本分割:避免“语义断裂”

痛点:很多人习惯用固定长度分割文本(比如每500字切一段),但这种方式很容易把完整的语义单元拆开——比如把一个句子的主语留在前一段,谓语和宾语分到后一段,导致检索时无法匹配完整信息。

优化方案:用“语义优先”的分割策略替代“长度优先”:

  • 递归分割:先按天然边界(段落、标题、章节)分割,若某一段过长(比如超过1000字),再根据句子停顿(句号、分号)二次分割,确保每段都是“完整的语义块”。
  • 语义分割:借助轻量级模型(如Sentence-BERT)或NLP算法(如TextTiling),识别文本中的语义断点,比如在“转折词”“新话题开头”处分割,让每段内容聚焦一个核心观点。
  • 滑动窗口+重叠:对长文档分割时,设置10%-20%的重叠区域(比如前一段结尾50字与后一段开头50字重叠),避免关键信息(如公式、案例)恰好落在两段之间被遗漏。

img

2. 元数据增强:给文档“贴标签”,检索更精准

痛点:仅靠文本内容检索,容易出现“歧义匹配”——比如查询“2023年产品销量”,可能会召回2024年提到“2023年数据对比”的文档,或其他产品的“2023年销量”文档,因为纯文本无法区分“时间”“产品”等关键属性。

优化方案:为每个文本块附加“结构化元数据”,相当于给文档贴标签,后续检索时可结合元数据过滤:

  • 基础元数据:来源文件名称、章节标题、页码、作者、创建日期、文件类型(如PDF/Word/Excel);
  • 业务元数据:根据场景定制,比如电商场景可加“产品ID”“品类”,医疗场景可加“疾病类型”“文献级别(核心期刊/普通期刊)”;
  • 应用方式:检索时先通过元数据筛选(比如“只看2023年的产品文档”),再对筛选后的文档做语义检索,大幅缩小范围,提升精度。

3. 数据清洗:给原始数据“去杂质”

痛点:原始数据中常藏着各种“噪音”——比如PDF转文字时的乱码、网页爬取的广告弹窗内容、重复的文档片段、与业务无关的注释(如“此部分仅供内部讨论”),这些内容会干扰检索,甚至让LLM生成无关答案。

优化方案:搭建自动化数据清洗流水线,分三步处理:

  1. 去重:用哈希值或文本相似度算法(如SimHash)识别重复文档/段落,保留最新或最完整的版本;
  2. 去噪:通过规则过滤(如删除包含“广告”“免责声明”的段落)、格式标准化(如统一日期格式、去除乱码字符),清理无关内容;
  3. 内容筛选:根据业务需求过滤低价值信息,比如金融场景可剔除“行业新闻八卦”,只保留“政策文件”“财报数据”等核心内容。

三、层次二:检索层优化——让“找文档”又快又准

检索是RAG的“核心引擎”,如果检索不到相关文档,LLM再强也只能“无米之炊”。这一层的目标是:让系统精准定位到与用户查询最匹配的文档块,减少“漏检”和“误检”。

img

1. 检索器升级:用“定制化”替代“通用款”

痛点:很多开发者直接用通用嵌入模型(如OpenAI的text-embedding-3-small)做检索,但通用模型对垂直领域的专业术语不敏感——比如在法律场景,“善意取得”“表见代理”等术语的语义,通用模型可能无法准确捕捉,导致检索偏差。

优化方案:从“选模型”和“调模型”两方面升级:

  • 模型选型:不同场景适配不同模型,比如短文本检索(如FAQ)可用BGE-small(轻量快),长文档检索(如技术手册)可用text-embedding-3-large(长上下文支持好),多语言场景可用Cohere的多语言嵌入模型;
  • 微调嵌入模型:用领域内的“查询-相关文档”数据对开源模型(如BGE-base、M3E)进行微调,让模型学会理解行业术语的特殊含义。比如用医疗领域的“症状-诊断指南”数据微调后,检索“咳嗽伴胸痛”时,能更精准匹配到“肺炎诊断”相关文档。这是提升垂直领域检索精度的“王牌手段”,效果通常比用通用模型好30%以上。

2. 混合检索:结合“关键词”与“语义”的优势

痛点:纯稠密检索(基于嵌入模型)擅长理解查询的“语义意图”,但对“精确关键词”不敏感——比如查询“2024 Q1营收”,如果文档中只写了“2024年第一季度营业收入”,没有“Q1”这个缩写,稠密检索可能匹配度低;而纯稀疏检索(如BM25)擅长关键词匹配,但无法理解“语义相似”(比如“如何降本”和“成本控制方法”)。

优化方案:融合稀疏检索与稠密检索,取长补短:

  • 流程设计:先分别用BM25(关键词匹配)和嵌入模型(语义匹配)生成两个候选文档列表,再通过加权融合(如BM25结果占30%权重,稠密结果占70%权重)得到最终列表;
  • 优势:既保证“精确关键词”能被召回,又能覆盖“语义相似”的内容,尤其适合查询中包含缩写、专业术语的场景。

img

3. 重排序:给检索结果“二次筛选”

痛点:初步检索返回的Top K(比如Top 20)结果中,可能混入一些“伪相关”文档——比如查询“AI大模型训练成本”,检索结果里可能有“AI大模型应用案例”“AI芯片价格”等相关度低的内容,这些文档会占用LLM的上下文窗口,影响生成质量。

优化方案:用“重排模型”对Top K结果做二次排序:

  • 模型选择:选用轻量级、高速度的重排模型,如BERT-Reranker、ColBERT,这类模型专门优化“Query-Doc”对的相关性判断,能快速识别出真正相关的文档;
  • 效果:将重排后的Top 5-10文档送给LLM,既能保证信息充足,又能过滤掉低相关内容,实验显示,加入重排序后,生成答案的准确性平均提升25%以上。

4. 查询理解与改写:让系统“读懂”用户需求

痛点:用户的原始查询往往不规范——比如“怎么解决订单超时”(表述模糊)、“物流慢”(过于简短)、“我想知道为什么我的货还没到,都下单3天了”(包含冗余信息),直接用这类查询检索,很容易找不到匹配文档。

优化方案:通过LLM对原始查询做“预处理”,提升检索针对性:

  • 查询扩展:让LLM生成查询的同义词、相关表述或子问题,比如将“物流慢”扩展为“物流配送延迟原因”“如何查询物流进度”“物流超时处理方法”,用多个扩展查询一起检索,扩大召回范围;
  • HyDE(假设性文档生成):让LLM根据原始查询,先生成一个“假设性答案”(比如用户问“大模型训练需要多少GPU”,LLM先生成“大模型训练的GPU数量取决于模型规模,比如70B模型可能需要数百张A100 GPU”),再用这个“假设性答案”去检索真实文档。这种方式能让检索更贴近“用户真正想知道的信息”,尤其适合模糊查询场景。

img

四、层次三:生成层优化——让LLM“会用”检索到的信息

有了高质量的检索文档,不代表LLM能生成好答案——如果提示不清晰、上下文管理不当,LLM可能会忽略检索内容,或者只依赖部分信息,导致答案不完整或有幻觉。这一层的核心是“引导LLM正确使用检索到的上下文”。

1. 提示工程:给LLM“明确指令”

痛点:简单的提示(如“根据以下文档回答问题:[文档内容],问题:[用户查询]”)无法约束LLM的行为——比如LLM可能会用自己的“知识库”补充信息,导致答案包含未检索到的内容(幻觉),或者忽略文档中的关键数据。

优化方案:设计“结构化提示”,明确LLM的角色、任务和规则:

  • 指令明确化:加入强约束语句,如“请严格基于提供的上下文回答,不允许使用上下文外的任何信息;如果上下文没有相关内容,直接回复‘根据现有信息无法回答该问题’,禁止猜测”;
  • 角色与格式定义:给LLM分配角色(如“你是专业的产品顾问,需用简洁的语言解答用户问题”),并规定答案格式(如“先给出结论,再分点引用上下文内容说明,引用格式为‘[文档1-段落2]:XXX’”);
  • Few-Shot示例:在提示中加入2-3个“问题-上下文-正确答案”的示例,让LLM更直观地理解“如何结合上下文回答”。比如示例中展示“当上下文提到‘订单超时可申请退款’时,答案需明确引用该内容,不额外添加其他解决方案”。

2. 上下文管理:解决“窗口不够用”问题

痛点:当检索到的文档较多(如10段,每段500字),总长度会超出LLM的上下文窗口(如GPT-3.5仅支持4k tokens),导致部分文档无法传入;即使能传入,大量信息也会让LLM“抓不住重点”,忽略关键内容。

优化方案:通过“压缩”或“分治”管理上下文:

  • 上下文压缩:先用LLM对每段文档做“摘要提取”,将500字的段落压缩为100字的核心摘要,再将摘要传入LLM生成答案。适合文档内容较冗余的场景,能大幅减少上下文长度;
  • 分治策略:对超长文档集合采用“Map-Reduce”或“Refine”策略:
    • Map-Reduce:将文档分成多组(每组2-3段),让LLM分别基于每组文档生成“子答案”,最后再让LLM合并所有子答案,生成最终结果。适合多文档、信息分散的场景(如分析10份产品反馈报告);
    • Refine:先让LLM基于第一段文档生成初步答案,再传入第二段文档,让LLM“补充或修正”初步答案,以此类推,直到所有文档处理完毕。适合文档内容有递进关系的场景(如技术手册的章节衔接)。

img

五、层次四:高级架构优化——让RAG具备“自主迭代”能力

当基础层、检索层、生成层优化到位后,可通过高级架构提升RAG的“智能性”,让系统具备类似人类的“研究式”思考能力,应对更复杂的业务需求。

1. 迭代检索-生成:让系统“主动补全信息”

思路:传统RAG是“一次检索+一次生成”,如果第一次检索到的信息不足,LLM只能生成“信息不足”的答案;而迭代检索-生成模仿人类“发现问题→补充查询→完善答案”的过程:

  • 流程:1. 第一次检索后,LLM先分析“现有文档是否能完整回答问题”;2. 若不能,自主生成“补充检索查询”(如原问题是“2024年A产品销量”,现有文档只有Q1数据,LLM生成补充查询“2024年A产品Q2-Q4销量”);3. 用补充查询再次检索,获取新文档;4. 重复1-3步,直到信息充足,再生成最终答案;
  • 适用场景:复杂问题(如“分析A产品2024年销量变化原因”),需要多轮补充信息才能回答。

2. GraphRAG:用“知识图谱”提升推理能力

思路:传统RAG将文本分割成独立的“块”,无法捕捉实体间的关联关系(如“产品A”与“供应商B”“客户C”的关系),导致LLM难以进行“关联推理”;GraphRAG通过构建知识图谱,将文本中的实体(如人物、产品、事件)和关系(如“合作”“因果”)提取出来,形成结构化图谱:

  • 流程:1. 索引阶段,用LLM+NLP工具从文本中提取实体和关系,构建知识图谱;2. 检索阶段,先在图谱中搜索与查询相关的“实体关联路径”(如查询“供应商B的产品质量问题对A产品的影响”,图谱中找到“供应商B→提供零件→产品A→客户投诉→质量问题”的路径);3. 结合图谱路径和相关文本块,让LLM生成包含“关联推理”的答案;
  • 优势:能回答需要“多实体关联”的问题,比如“哪些客户因为供应商B的零件问题,投诉了产品A”,传统RAG很难精准回答。

img

3. Self-RAG / Corrective RAG:让LLM“自我纠错”,降低幻觉风险

思路:传统RAG中,LLM生成答案的过程是“单向输出”——一旦开始生成,就无法回头验证信息的准确性;而Self-RAG(Self-tuning Retrieval-Augmented Generation)和Corrective RAG(纠错式RAG)则赋予LLM“自我反思”和“动态修正”的能力,让生成过程更可控、更可靠。

  • 核心逻辑:将生成过程拆分为“生成-验证-纠错”三个环节,LLM在生成每一部分内容时,都会主动判断“是否需要检索支持”“现有检索信息是否足够”“已生成内容是否准确”,并根据判断结果动态调整:

    1. 生成阶段:LLM生成答案片段后,会自动触发“反思机制”,比如思考“这个观点‘产品A的复购率提升15%’是否有检索文档支持?”;
    2. 验证阶段:若发现某部分内容缺乏检索支持,或现有文档信息与生成内容冲突,LLM会标记“存疑内容”,并生成针对性的补充检索查询(如“产品A 2024年复购率数据”),重新检索相关文档;
    3. 纠错阶段:根据新检索到的文档,LLM修正存疑内容——若检索到“产品A复购率提升12%”,则将原内容修正为“12%”;若未检索到相关数据,则删除该存疑观点,避免幻觉。
  • 优势:相比传统RAG,这类架构能将答案的“真实性(Faithfulness)”提升40%以上,尤其适合对准确性要求极高的场景,如医疗诊断辅助、法律文书生成、金融数据分析等。例如在医疗场景中,LLM生成“某药物适用于高血压患者”的结论后,会自动验证检索文档中是否有该药物的适应症说明,若文档仅提到“适用于轻中度高血压”,则会补充限定条件,避免误导。

六、层次五:持续优化与评估——让RAG系统“越用越好”

很多开发者认为“优化到满足当前需求就够了”,但实际上,业务数据在更新、用户需求在变化(比如新的产品功能上线、用户查询场景拓展),静态的RAG系统会逐渐“失效”。这一层的核心是建立“持续迭代机制”,让系统能根据新数据和反馈不断自我优化。

1. 搭建自动化评估流水线:用数据驱动优化决策

痛点:手动评估优化效果(如人工检查100个答案的准确性)效率低、成本高,且主观误差大(不同评估者对“相关性”的判断标准可能不同),无法支撑高频次的优化迭代。

优化方案:构建端到端的自动化评估流水线,实现“策略上线→自动评估→结果反馈”的闭环:

  • 评估数据准备:收集两类核心数据——1. 标注数据集:人工标注“查询-相关文档-标准答案”的样本(如1000组),作为评估基准;2. 真实业务数据:记录用户的真实查询、检索结果、生成答案,作为动态评估样本;
  • 自动化评估模块:集成多个评估工具,覆盖全流程指标:
    • 检索层:用HR@K、MRR的计算工具(如RAGAs库)自动评估检索精度;
    • 生成层:用LLM裁判(如GPT-4)自动打分,输出准确性、流畅性、真实性的量化分数(1-5分);
    • 成本与延迟:用监控工具(如Prometheus)实时统计响应延迟、Token消耗、算力成本;
  • A/B测试能力:支持同时上线多个优化策略(如“策略A:微调BGE模型”“策略B:BM25+重排序”),通过自动化评估对比不同策略的效果,选择最优方案上线。

2. 建立用户反馈循环:把“用户意见”变成优化动力

痛点:自动化评估无法覆盖所有真实场景(比如用户觉得答案“不够易懂”“不够简洁”,这类主观感受难以用指标量化),而用户是RAG系统的最终使用者,其反馈是最直接的优化依据。

优化方案:设计轻量化的用户反馈机制,将反馈数据转化为优化资源:

  • 反馈收集方式:在答案输出页面添加简单的反馈入口,如“有用/无用”的二元按钮,或“准确性/相关性/易懂性”的三星评分(避免用户操作成本过高);对“无用”或低分反馈,额外提供“反馈原因”输入框(如“信息错误”“答非所问”“太复杂”);
  • 反馈数据处理
    1. 分类标注:将“信息错误”“答非所问”的反馈,与对应的“查询-检索文档-答案”绑定,标注为“低质量样本”;
    2. 用于模型微调:用“低质量样本”反向优化检索器(如将“答非所问”样本中的“查询-不相关文档”对,作为负样本微调嵌入模型),或优化生成器(如用“信息错误”样本,调整提示词中的约束规则);
    3. 迭代验证:将优化后的策略应用于相同的查询场景,再次收集用户反馈,验证优化效果是否提升。

img

七、落地建议:从“性价比最高”的优化开始,避免盲目堆料

很多开发者看到复杂的优化策略(如GraphRAG、Self-RAG)就想立刻尝试,但实际上,不同优化层次的“投入产出比”差异极大,盲目追求高级架构反而会导致项目延期、成本超支。结合大量实践经验,建议按以下优先级推进:

  1. 优先搞定“基础层”(数据质量):花1-2周时间优化文本分割(用递归+滑动窗口策略)、补充元数据(至少包含来源、日期、业务标签)、清洗数据(去重、去噪)。这一步投入最少,但能解决“检索不到相关文档”“答案有噪音”等基础问题,为后续优化打牢地基;

  2. 重点突破“检索层”(精准度):在基础层优化完成后,优先做两件事——1. 微调开源嵌入模型(用500-1000组领域内“查询-相关文档”样本),2. 加入重排序模块(用BERT-Reranker等轻量模型)。这两项优化能让检索精度提升30%-50%,且开发成本可控(微调开源模型无需大量算力),是“性价比之王”;

  3. 按需优化“生成层”(答案质量):若发现“检索到相关文档,但LLM生成的答案仍有幻觉”,再优化提示工程(加入强约束指令+2-3个Few-Shot示例);若文档过长导致上下文溢出,再引入Map-Reduce或上下文压缩策略;

  4. 最后尝试“高级架构”(智能性):只有当基础层、检索层、生成层都优化到位,且业务有复杂需求(如需要关联推理、多轮信息补充)时,再考虑GraphRAG、Self-RAG等高级架构。此时系统已有稳定的基础,能更清晰地判断高级架构是否能解决实际问题,避免“为了复杂而复杂”。

核心提醒:无论推进到哪个阶段,都要以“评估指标”为导航——如果优化后检索精度的HR@K没有提升、生成答案的真实性分数没有上涨,即使策略再复杂,也说明该优化不适合当前场景,需及时调整方向。RAG优化不是“炫技”,而是“解决问题”,始终围绕业务需求和评估数据推进,才能真正落地见效。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

在这里插入图片描述

为什么要学习大模型?

我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。

在这里插入图片描述

在这里插入图片描述

大模型入门到实战全套学习大礼包

1、大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

img


2、大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

在这里插入图片描述

3、AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

img

4、大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

img

5、大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

img

适用人群

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

Logo

更多推荐