
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
这篇论文提出了一种基于图的Retrieval-Augmented Generation (RAG)方法,用于对整个文本语料库进行Query-Focused Summarization (QFS)。该方法很好地结合了知识图谱生成、RAG和QFS技术,为理解文本语料库的整体层面的意思提供了新思路。

手把手教你用 CNB 5 分钟构建「可追溯」AI 助手,做饭/编程/学习全搞定!私密知识库+多模态对话,开发者直呼内行!

RAG,本质上是一种结合搜索技术和大型语言模型(LLMs)的技术。它通过从数据源中检索信息来辅助LLM生成答案。

今天我们将深入探讨企业内部构建RAG的核心策略,循序渐进的实施路径,并分享在n8n平台上搭建RAG Q&A Agent应用案例和企业内部应用场景。

本文将基于笔者开发内部Agent工具的实战经验,系统性地拆解一套“AI+MCP”模式下的反幻觉方法论,并分享如何通过代码与策略的结合,构建高精度、可信任的AI工具。

本书将系统性地介绍如何从零开始,基于RAG(Retrieval‑Augmented Generation,检索增强生成)技术,构建一个能够理解和利用个人知识库的智能聊天机器人,并将其无缝集成到你自己的网站或应用中。

使用 DeepSeek + RAGFlow,你可以在不到一小时内(如果顺利的话)搭建起一个真正“懂你”的个人知识库助手。无需训练大模型,也能高效、低成本地解决幻觉问题。

有同学给我留言说想知道怎么训练自己的大语言模型,让它更贴合自己的业务场景。完整的大语言模型训练成本比较高昂,不是我们业余玩家能搞的,如果我们只是想在某个业务场景或者垂直的方面加强大模型的能力,可以进行微调训练。

如果你把大语言模型/LLM 当成一门技术来看,那就要看一下这门技术需要什么。

在Transformer之后,出现了三个较大的分支,一个是以bert为代表的以decoder-only的模型,另一个是以GPT为代表的encoder模型
