随着生成式AI技术的爆发,大模型在处理复杂任务时的局限性逐渐显现——预训练数据固定导致时效性不足、对专业领域知识覆盖有限、易产生"幻觉"回答等。而检索增强生成(RAG)技术通过"检索外部知识+生成精准回答"的模式,完美弥补了这些短板。

近期,以Deepseek为代表的大模型工具持续火热,如何将海量分散的数据与生成能力高效结合,成为技术落地的核心挑战。RAGFlow作为一款集成检索与生成的系统架构,正是为解决这一问题而生,它让大模型既能"记得牢",又能"答得准"。

一、RAGFlow核心解析

1、什么是RAGFlow?

RAGFlow是一套融合数据检索引擎与生成式模型的一体化系统。它的核心逻辑是:当接收到用户查询时,先通过检索模块从海量知识库中精准定位相关信息,再将这些信息作为"上下文"输入生成模型,最终输出符合语义、基于事实的回答。

简单说,传统大模型像"闭卷考试"(全靠记忆),RAGFlow则是"开卷考试"(可以查资料)。其核心模块包括:

  • 检索模块:基于向量数据库、全文检索等技术,快速从结构化/非结构化数据中匹配相关内容;
  • 生成模块:依托Transformer、GPT等大模型,将检索结果整合成自然语言回答。

2、RAGFlow的三大优势

  • 数据处理更灵活:支持文档、表格、图片等多格式数据,无需复杂预处理即可接入,解决传统RAG对数据格式的严苛要求;
  • 生成质量可控:通过"检索源可追溯"机制,让回答每句话都有依据,大幅降低大模型"幻觉"概率;
  • 场景适配性强:从企业内部知识库查询、客服智能应答,到教育领域的题库答疑、医疗行业的病例分析,均可快速落地。

3、典型应用场景举例

  • 企业客服:整合产品手册、故障手册、历史对话记录,用户提问时自动检索相关解决方案,生成标准化回复,响应速度提升60%以上;
  • 教育答疑:将教材、教案、习题解析纳入知识库,学生提问时不仅给出答案,还能关联知识点出处,实现"知其然更知其所以然";
  • 法律检索:整合法规条文、判例文档,律师查询时自动匹配相关法条与类似案例,辅助快速形成辩护思路。

4、系统架构图解

317212466-d6ac5664-c237-4200-a7c2-a4a00691b485

RAGFlow的架构可简化为"数据接入-处理-检索-生成"四层:

  1. 数据接入层:支持本地文件、API接口、数据库等多渠道数据导入;
  2. 数据处理层:进行文本拆分、格式转换、向量编码(Embedding);
  3. 检索层:结合向量检索与关键词检索,快速定位相关片段;
  4. 生成层:调用大模型,基于检索结果生成回答,并附来源标注。

二、环境准备与系统搭建

1、环境需求

在搭建RAGFlow系统前,需要确保开发与运行环境满足以下要求:

  • 硬件配置:建议采用多核CPU、充足内存(16GB及以上)以及支持高并发访问的存储设备;如需部署大规模检索服务,可考虑使用分布式存储集群。
  • 操作系统:推荐使用Linux发行版(如CentOS、Ubuntu)以便于Shell脚本自动化管理;同时也支持Windows环境,但在部署自动化脚本时可能需要适当调整。
  • 开发语言与工具:主要使用Java进行系统核心模块开发,同时结合Shell脚本实现自动化运维。
  • 依赖环境:需要安装Java 8及以上版本,同时配置Maven或Gradle进行依赖管理;对于数据检索部分,可采用ElasticSearch、Apache Solr等开源检索引擎;生成模块则依赖于预训练模型,可以借助TensorFlow或PyTorch进行实现。

2、服务器配置

  • CPU >= 4 核
  • RAM >= 16 GB
  • Disk >= 50 GB
  • Docker >= 24.0.0 & Docker Compose >= v2.26.1

3、安装

修改 max_map_count

确保 vm.max_map_count 不小于 262144

如需确认 vm.max_map_count 的大小:

$ sysctl vm.max_map_count

如果 vm.max_map_count 的值小于 262144,可以进行重置:

# 这里我们设为 262144:
$ sudo sysctl -w vm.max_map_count=262144

你的改动会在下次系统重启时被重置。如果希望做永久改动,还需要在 /etc/sysctl.conf 文件里把 vm.max_map_count 的值再相应更新一遍:

vm.max_map_count=262144
下载仓库代码
git clone https://github.com/infiniflow/ragflow.git
Docker拉取镜像

修改镜像为国内镜像并且选择embedding版本

修改文件docker/.env/

默认配置为:RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0-slim

修改为国内镜像:RAGFLOW_IMAGE=registry.cn-hangzhou.aliyuncs.com/infiniflow/ragflow:v0.16.0

RAGFlow image tag Image size (GB) Has embedding models? Stable?
v0.16.0 ≈9 ✔️ Stable release
v0.16.0-slim ≈2 Stable release
nightly ≈9 ✔️ Unstable nightly build
nightly-slim ≈2 Unstable nightly build

运行命令拉取镜像

docker compose -f docker/docker-compose.yml up -d

image-20250218134526193查看日志

docker logs -f ragflow-server

提示下面提示说明启动成功

     ____   ___    ______ ______ __
    / __ \ /   |  / ____// ____// /____  _      __
   / /_/ // /| | / / __ / /_   / // __ \| | /| / /
  / _, _// ___ |/ /_/ // __/  / // /_/ /| |/ |/ /
 /_/ |_|/_/  |_|\____//_/    /_/ \____/ |__/|__/

 * Running on all addresses (0.0.0.0)
 * Running on http://127.0.0.1:9380
 * Running on http://x.x.x.x:9380
 INFO:werkzeug:Press CTRL+C to quit

访问IP,进入 RAGFlow,注意不是 9380 端口,Web是http://127.0.01默认为 80 端口

image-20250218135456390

三、应用

注册账号

image-20250218135625403

注册完直接登录

image-20250218135717184

添加模型

本文用到的模型类型:Chat 和 Embedding。 Rerank 模型等后续在详细介绍。

点击右上角->模型提供商->添加模型

image-20250219161523490

填写模型信息,模型类型选 chat

image-20250219161441642

再添加一个 Embedding 模型用于知识库的向量转换(RAGFlow 默认也有 Embedding)

image-20250219161827675

在系统模型设置中配置聊天模型嵌入模型为我们刚刚添加的模型

image-20250219163114721

创建知识库

image-20250219162148401

填写相关配置

  • 文档语言:中文
  • 嵌入模型:选择我们自己运行的bge-m3:latest,也可以用默认的。具体效果大家自行评估

image-20250219162457976

上传文件

这里我自己造了一个测试文档来验证知识库,内容是编的,介绍一个 ABCD 工具,文档在文末提供下载。

image-20250219162616449

image-20250219162528361

文件上传后是未解析状态,需要解析才可以使用,点击解析

image-20250219162738069

解析成功后点击文件可以看到解析效果

image-20250219162906257

效果

image-20250219162931748

创建聊天

image-20250219163339314

设置模型。token 调整大一些

image-20250219163408611

验证效果

问题一:直接发送 ABCD

知识库回答

image-20250219163519619

原文档

image-20250219163648682

问题二:ABCD 错误代码有哪些

知识库回答

image-20250219164100751

原文档

image-20250219164043103

问题三:ABCD 支持哪些系统

知识库回答

image-20250219164230807

原文档

image-20250219164256131

问题四:ABCD 官网

知识库回答

image-20250219164944000

你也可以在回答的结果看到他引用的知识库

image-20250219165026381

原文档

image-20250219165057019

四、结语

RAGFlow 为快速落地 RAG 技术提供了开箱即用的解决方案,从环境部署到知识库搭建,全程无需复杂编码,适合技术与非技术人员上手。但需注意,没有 “万能的 RAG 系统”,实际应用中需根据数据特点调整参数,才能充分发挥其价值。

如果你正在寻找将企业数据与大模型结合的方法,RAGFlow 无疑是值得尝试的工具 —— 它让大模型不再 “凭空想象”,而是基于事实说话。

五、如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

在这里插入图片描述

六、为什么要学习大模型?

我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。

在这里插入图片描述

在这里插入图片描述

七、大模型入门到实战全套学习大礼包

1、大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

img


2、大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

在这里插入图片描述

3、AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

img

4、大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

img

5、大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

img

适用人群

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

Logo

为武汉地区的开发者提供学习、交流和合作的平台。社区聚集了众多技术爱好者和专业人士,涵盖了多个领域,包括人工智能、大数据、云计算、区块链等。社区定期举办技术分享、培训和活动,为开发者提供更多的学习和交流机会。

更多推荐