logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

实战 | 零基础搭建知识库问答机器人:基于SpringAI+RAG的完整实现

RAG(检索增强生成)是一种结合了信息检索和文本生成的技术。用户提出问题系统从知识库中检索相关信息大语言模型基于检索到的信息生成答案在LLM调用生成响应之前,由系统动态构造一个“最小且相关的知识上下文”。动态:每次问题都不同,检索的知识也不同(比如用户问 A 产品时找 A 的文档,问 B 产品时找 B 的文档)最小:只注入必要信息(比如用户问 “A 产品的定价”,就只塞定价相关的片段,而非整份产品

文章图片
#机器人
实战 | 零基础搭建知识库问答机器人:基于SpringAI+RAG的完整实现

RAG(检索增强生成)是一种结合了信息检索和文本生成的技术。用户提出问题系统从知识库中检索相关信息大语言模型基于检索到的信息生成答案在LLM调用生成响应之前,由系统动态构造一个“最小且相关的知识上下文”。动态:每次问题都不同,检索的知识也不同(比如用户问 A 产品时找 A 的文档,问 B 产品时找 B 的文档)最小:只注入必要信息(比如用户问 “A 产品的定价”,就只塞定价相关的片段,而非整份产品

文章图片
#机器人
从入门到精通:6步搭建企业级RAG系统,让你的AI应用不再‘胡说八道‘

文章详细介绍了构建企业级检索增强生成(RAG)系统的六大核心技术环节:查询构建、查询转换、智能路由、索引优化、精准检索与排序以及生成与闭环。通过模块化设计,从自然语言理解到最终生成的完整流程,解决了大模型"幻觉"和知识滞后问题,帮助开发者搭建高精度、高可用的AI应用系统。

文章图片
#人工智能#深度学习#科技 +2
从“调参侠“到“系统架构师“:这款自我进化的RAG系统正在改写AI应用的底层逻辑

文章介绍了一种"自我进化的智能体RAG系统",通过四大核心组件(专家智能体团队、多维评估系统、性能诊断智能体和SOP架构师智能体)实现了AI系统的自我诊断与优化。这种架构代表了AI从"他组织"到"自组织"的范式转变,让AI系统能够感知自身状态、诊断问题并持续改进,为复杂现实世界提供了更灵活的解决方案。

#系统架构#人工智能#算法 +1
AI Agent28个高频面试问题与准备策略总结

这里为你整理了28个AI Agent核心面试问题与回答框架。我根据考察重点将其分为五大模块,并提供了一份面试准备策略。这部分考察你对Agent本质的理解,是面试的起点。这部分深入考察你对Agent运行机制和主流技术框架的掌握。这部分考察你将Agent技术落地、解决实际工程问题的能力。这部分考察你对技术风险的认知和应对方案,在面试中常被用来衡量候选人的综合素养。这部分考察你的技术视野、学习能力和解决

文章图片
#人工智能#面试#大数据 +3
大模型还在“间歇性失忆“?DeepSeek这波操作直接把记忆焊死在模型里!小白程序员也能轻松上手的革命性技术

文章介绍了DeepSeek提出的Conditional Memory(条件记忆)技术,通过Engram架构在大模型内部实现"可学习查表"的记忆系统。该方法通过构造N-gram、Hash映射和N-gram Embedding表,结合Context-aware Gating机制,使模型能够根据上下文智能调用记忆信息。此外,DeepSeek-OCR技术通过视觉token压缩长文本上下文,为解决大模型记忆

文章图片
#人工智能#大数据#数据库 +1
RAG科普文!检索增强生成的技术全景解析

LLM 为社区生成摘要,提供对主题结构和语义的见解。

文章图片
#人工智能#自然语言处理#算法 +3
探索提升RAG系统问答质量的技术路线

在这个过程中,系统将原始查询转化成一种或多种可以提升信息检索效果的形式,确保系统能够更有效地从不同的数据源中提取相关信息。对于具有挑战性的检索任务,用户问题的措辞可能不太恰当。Query Translation 是指将用户的原始问题重新表达,使其更适合检索过程,提高检索的相关性和准确性。,数据库难以直接匹配相关内容。,例如用户只输入“DeepSeek-R1 的优势?”而没有明确上下文。,原始查询可

文章图片
#oracle#数据库#transformer +4
最全 GraphRAG 国产化落地经验:中科数睿的探索

GraphRAG 如何选择图数据库?不同的 GraphRAG 实现方案有哪些优劣势?如何结合大模型与图数据库实现 GraphRAG 的完全国产化**?别再让 AI “胡说八道”给答案了~从真实的企业级 GraphRAG 探索历程中,获取最精华的经验总结!

文章图片
#架构#人工智能#大数据
构建企业私有RAG大模型: (可商用)Qwen2.5开源模型vLLM部署及示例

密集、易于使用、仅解码器的语言模型,有0.5B1.5B3B7B14B32B和72B大小以及基本和指示变体。在我们最新的大规模数据集上进行预训练,涵盖多达18T 个标记。在指令跟踪、生成长文本(超过 8K 个标记)、理解结构化数据(例如表格)以及生成结构化输出(尤其是 JSON)方面有显著改进。更能适应系统提示的多样性,增强聊天机器人的角色扮演实现和条件设定。上下文长度最多支持128K个token,

文章图片
#开源#人工智能#语言模型 +3
    共 1885 条
  • 1
  • 2
  • 3
  • 189
  • 请选择