登录社区云,与社区用户共同成长
邀请您加入社区
本文探讨了如何从单一智能助手升级到多智能体协同的企业AI中台。通过四层架构设计(应用访问层、编排与协同层、智能体与能力层、基础资源层),实现了多领域智能体(HR、采购、客服等)的统一管理和协作。文章详细介绍了智能体注册中心、任务调度器、状态管理等核心组件,并以采购审批流程为例,展示了多智能体协同处理复杂任务的实现方法。同时强调了企业落地需关注的能力复用、权限隔离、成本控制和统一监控等关键点,为构建
本文提出GrepRAG方法,通过让大模型自主生成精确grep命令实现高效代码补全。针对传统检索方法计算成本高的问题,该方法采用轻量级词法检索,无需预建索引,检索速度提升35倍。通过标识符加权重排序和结构感知去重,解决了关键词歧义和上下文冗余问题。实验表明,GrepRAG性能达到SOTA水平,在跨文件依赖场景下表现优异,为代码补全提供了一种简单高效的解决方案。
摘要 检索增强生成(RAG)技术通过引入外部知识库有效解决了大语言模型的幻觉问题和知识局限性。该系统由知识库、检索器和生成器组成,通过向量化用户问题、检索相关知识片段、构建Prompt等步骤,显著提升了生成内容的准确性和时效性。RAG无需更新模型参数即可避免灾难性遗忘,降低了计算成本。文章详细阐述了知识库构建、查询增强、检索器选择等关键技术,并比较了黑盒与白盒两种增强架构的优缺点,展示了RAG在提
这是一款融合RAG技术与知识图谱的智能知识库系统,提供智能问答和知识管理服务。技术栈轻量化,支持多格式文档解析,提供知识图谱可视化和三级权限管理。完全免费且支持二次开发,采用Docker Compose一键部署,适合个人和企业使用,大大降低了知识管理的技术门槛。
本文系统介绍了17种RAG检索增强优化策略,从基础检索到高级优化方法,涵盖语义切分、上下文增强、知识图谱等多种技术。每种策略均标注了适用场景、检索精度、响应速度、技术成本及GPT评分(0.3-0.85分),如Small-to-Big Retrieval(0.85分)和Hierarchical Indices(0.84分)表现突出。文章提供选型对照表,帮助开发者根据精度需求和成本预算选择方案,是构建
本文记录了从Milvus容器反复重启到成功构建LangChain RAG系统的完整过程。针对本地RAG系统开发中常见的Milvus端口拒绝、容器异常等问题,提供了基于Milvus 2.4+LangChain+Ollama的解决方案。详细介绍了架构配置、Docker Compose部署方案,并解释了Milvus中的"tag/metadata"存储机制。通过Python代码示例展示
摘要:本文提出一种结合大语言模型(LLM)和检索增强生成(RAG)技术自动更新知识图谱的方法。通过LLM识别过时事实,RAG从外部源获取最新信息进行修正。实验表明,few-shot提示优于zero-shot,提升查询准确率并减少幻觉问题,为知识图谱动态维护提供了高效解决方案。该方法在足球转会等实际场景验证有效,解决了传统KG静态更新的局限性,具有广泛的应用前景。
本文介绍了基于大模型的AI应用开发,重点讲解了智能体(Agent)的概念与应用。智能体通过组合多个AI模型,实现任务分解与协同工作,能处理复杂需求。与传统编程不同,AI开发将规则交由大模型处理,降低了技术门槛。文章指出,掌握大模型原理、API调用和Python等基础技能即可入门。随着自然语言编程的发展,未来人人都可能成为AI开发者。作者作为金融从业者转型AI开发的案例,展示了非技术背景人员也能通过
摘要: RAG系统中,上下文构建策略直接影响召回效果。语义召回与关键字召回需采用不同的chunk策略:前者需灵活组合标题、段落等,后者依赖固定分词。实际应用中,若召回内容分散在多个段落中,需权衡是否扩展上下文至完整段落(减少噪音但增加token消耗)或仅保留高相关chunk(精准但可能遗漏关联信息)。最佳方案应结合场景动态调整,如对长段落进行语义合并以优化效果。AI大模型技术快速发展,掌握此类核心
RAGFlow开源RAG引擎解析:企业级智能问答系统构建指南 摘要:本文深入剖析了RAGFlow开源RAG引擎的技术架构与实现方案。该引擎采用微服务架构设计,核心包含DeepDoc智能文档解析、Agent工作流机制两大技术亮点,支持OCR识别、版面分析等高级功能。文章详细阐述了生产环境下的部署实践,包括Docker容器化配置、Elasticsearch索引优化、GPU加速等关键环节,并提供了异步任
本文详细指导如何将原型级RAG+知识图谱系统升级为企业级方案,涵盖架构设计、组件升级、安全运维等关键维度。针对大规模文档处理和高并发场景,推荐采用云原生架构,替换核心组件为Milvus、Nebula Graph等分布式数据库,并引入vLLM自建推理服务。重点强调了数据隔离、权限控制、可观测性等企业级需求,提供从部署到性能优化的实用技巧,同时根据企业规模给出差异化建议。文章指出,企业级系统成功的关键
当金三银四的求职季在2026年拉开序幕,你会发现一个有趣的现象:懂RAG(检索增强生成)的后端工程师,薪资比同类岗位高出20%以上-4。曾经热门的提示词工程师岗位正在被更综合的“AI智能体运营工程师”所取代-4,而RAG正是这个岗位的“脊梁”-5。仅仅调用大模型API写个Demo的时代已经过去,面试官现在问的是:“你如何保证RAG在10GB混乱PDF数据下的检索精度?” 这篇文章,就是为你准备的
清华大学等机构联合发布UltraRAG 3.0 RAG系统,提供三大核心能力:快速原型开发、白盒可视化推理链路和智能开发助手。其特色"Show Thinking"面板实现像素级推理流程可视化,支持实时监控复杂循环、分支和工具调用,帮助开发者快速定位问题根源,显著缩短迭代周期。该系统旨在解决RAG落地难题,让开发过程告别"黑箱"模式。
AI系统演进三大核心:Agent协调者角色转变、MCP标准化通信协议、Skills模块化能力单元。三者协同构建动态智能网络,推动AI从单一模型向多智能体协作范式转型,实现从对话能力到执行能力的跨越。MCP作为模型间"通用语"确保上下文无损传递,Skills提供即插即用的专业化能力,Agent则扮演任务调度中枢。这种架构突破标志着AI应用进入"可行动、可协作、可扩展&q
本文解析AI Agent工具中MCP与Skill的核心区别。MCP作为标准化连接协议,使AI能访问外部系统(如数据库、API),解决"能做什么"的问题;Skill作为知识库,指导AI处理特定任务的方法论,解决"怎么做"的问题。两者分别在集成层和知识层发挥作用:MCP通过JSON-RPC实现工具调用,Skill通过结构化指令提升任务处理能力。实际应用中需结合两
本文提出上下文图谱概念,通过四元组或n元组结构融入时效性、来源和决策逻辑等元数据,解决传统知识图谱的局限性。结合CGR3(检索-排名-推理)范式,利用大语言模型提升知识图谱补全和问答任务性能。实验显示,在FB15k-237和YAGO3-10数据集上,Hits@1提升高达66.46%,为企业AI应用提供更可靠的推理基础,推动从静态数据到动态智能决策的转变。
RAG技术详细介绍
文本分割是RAG流程中的关键步骤,主要解决长文档处理、检索质量和语义完整性问题。LangChain框架提供了专业化的文本分割工具,支持多种文档类型,通过chunk_size、chunk_overlap等参数控制分割粒度。分割后的文本块保留元数据,便于后续向量化和检索。合理分割能提升检索精度,避免信息丢失或冗余,是构建高效RAG系统的基础。
面试官:张工,某一线大厂音视频中台&AI招聘平台双线技术负责人求职者:谢飞机,三年Java经验,简历写着「精通Spring全家桶,熟悉AI Agent」,实际靠《Java编程思想》前3章撑场子。
RAG技术的出现,不仅解决了大模型的固有缺陷,更为企业级AI应用开辟了一条可行的道路。从金融合规到医疗诊断,从智能制造到教育培训,RAG正在各个领域展现其变革力量。
RAG特点优点Naive RAG- 单一索引,如TF-IDF、BM25、向量检索- 简单,易于实现 - 缓解模型幻觉- 文档增强 - 索引优化 - query重写 - reranking- 更准确的检索 - 增强检索相关性- 混合检索 - 工具、API集成 - 模块化、工程化的实现- 更强的灵活性 - 适应更多元的场景Graph RAG- 图结构索引 - multi-hop推理 - 基于图节点的上
本文系统介绍了人工智能评估的发展历程,重点阐述了大型语言模型(LLM)作为评估器(LLM as a Judge)的创新范式。文章详细分析了单LLM系统、多LLM系统、人机协作系统以及Agent评估器的架构与实现,并通过Python和Java代码案例展示了多LLM评估器的实际应用。随着AI复杂度提升,这种新型评估方法克服了人工评估的可扩展性限制和传统指标的语义不敏感性,为人工智能发展提供了更有效的评
本文深度解析了RAG系统从基础到高级的调优全流程,包括知识库的精耕细作(检索优化、对话沉淀、健康度检查)、高级召回与排序技术(混合检索、重排序、查询扩展)以及GraphRAG架构解决复杂查询问题。文章指出RAG系统优化应分阶段实施:起步期引入混合检索,成熟期加入重排序和查询改写,巅峰期部署GraphRAG,并需在准确率与响应时间间进行权衡,以适应不同业务场景需求。
本文深入探讨了在 Java 17 生态下,如何利用 Spring AI 3.4+ 核心技术栈构建高并发、高效能的企业级 AI 应用。通过一场互联网顶级大厂的魔鬼面试对决,揭示了虚拟线程在 AI 请求处理中的优势,Spring AI 的 Advisor 机制如何实现统一的 Prompt 注入与上下文管理,RAG 架构中向量数据库与多级检索的优化策略,以及 Agent 智能体中 Function Ca
今天,我将为大家详细介绍如何使用LLaMA-Factory这一开源框架,从环境搭建到模型训练,再到实际应用,手把手教你打造属于自己的AI助手!
大语言模型(LLM)是基于自监督学习预训练的深度学习模型,训练数据量庞大、训练时间长,并且包含大量的参数。LLM在过去两年中彻底改变了自然语言处理领域,展现了在理解和生成类人文本方面的卓越能力。
随着大模型能力的不断突破,未来 AI Agent 将深度融入社会生产与生活,成为数字化转型的核心驱动力。开发者与企业需关注场景适配性、数据安全和人机协作,以最大化其价值。
希望本文能为读者提供关于轻量化模型设计的实用技巧和代码示例,助力大家在实际项目中实现高效的小而精AI模型。
本文从架构设计原理入手,详细剖析了各模块的技术细节、交互流程以及优化策略,并提供了带注释的实践代码示例。同时,针对实际部署中的潜在挑战,讨论了常见误区与针对性解决方案。该架构适用于知识密集型应用场景,如智能搜索引擎、虚拟助手和多模态问答系统。通过本文的阐述,读者可获得对这一前沿技术的系统性理解,并掌握从理论到实践的落地方法。
想入行AI却不知道选什么方向?2025年AI人才需求已清晰分层——从核心技术研发到跨行业落地,甚至伦理合规,每个领域都有明确的“高薪技能密码”。
微调 LLaMA(Large Language Model Meta AI)大模型是一个重要的步骤,能够使模型适应特定的任务或数据集,提高其在特定应用场景下的表现。
由于原生的Llama3模型训练的中文语料占比非常低,因此在中文的表现方面略微欠佳!本教程就以Llama3-8B-Instruct开源模型为模型基座,通过开源程序LLaMA-Factory来进行中文的微调,提高Llama3的中文能力!
从 AI 的基础概念、核心算法,到机器学习、深度学习等热门领域,都将深入浅出地讲解。无论你是对 AI 感兴趣的小白,还是想进一步夯实基础的爱好者,都能在分享中收获满满。
本文带你用一杯咖啡的时间,了解大模型的微调技术,无需高端显卡,用魔塔社区免费资源即可实战体验,在实战中理解微调技术,感受薅羊毛的快乐!
《Hands-On Large Language Models》(中文版预计 4 月上市) ,由 Jay Alammar 和 Maarten Grootendorst 倾力打造,为你深入解读大模型的技术核心,让看似复杂的技术变得通俗易懂、触手可及!
本文将基于Windows系统和CPU环境,使用Qwen2.5系列模型,详细实践从大型语言模型的下载、部署到微调的全过程。
本文的核心目标是探讨为何 AI Agents 在人工智能应用开发领域变得愈发重要,以及它们与 LLM 驱动的聊天机器人有何不同。 通过本指南,您将对 AI Agents 有更深入的理解,了解其潜在应用及其可能对您组织的工作流程产生的影响。
智能体(Agents)是一种能够感知环境、做出决策并采取行动来实现特定目标的自主实体。智能体的复杂程度各不相同,从简单的响应式智能体(对刺激直接做出反应)到更高级的智能体(能够学习和适应)都有。
大模型的落地质量,核心取决于评测系统的可靠性——没有科学、完善的评测体系,再强大的模型也可能沦为“人工智障”,无法真正适配实际应用场景。其实早在20世纪中期,AI系统评估就已起步,不过当时的核心聚焦于特定任务的算法性能,比如逻辑推理、数值计算这类可量化的场景。传统机器学习任务(如分类、回归),只需依靠准确率、精确率、召回率等可编程的统计指标,就能完成基础评估。
本文将基于AWS Bedrock+Nova模型+Titan Embeddings+Zilliz Cloud+LangChain,为大家带来一套可以快速上手并落地的企业级RAG教程。
摘要:本文探讨如何将基于LangChain/LlamaIndex的智能工作流接入企业监控告警体系。首先提出三层监控架构:基础设施层、AI应用层和业务价值层。重点介绍了通过OpenTelemetry标准化方案实现工作流可观测性,结合LangSmith进行AI链路追踪。详细给出了四步实施路径:初始化Telemetry、添加业务Trace、关键节点打点、RAG效果监控,并提供了告警策略建议和与用户反馈闭
本文介绍了如何利用LangChain/LlamaIndex构建企业级智能工作流系统。在前四篇基础上,针对企业多步骤、多系统协同的复杂流程(如采购审批、客服处理等),引入工作流编排能力。通过LangChain实现任务拆解、多Agent调度和跨系统协作,利用LlamaIndex进行知识检索和政策查询。文章详细阐述了系统架构设计、核心组件实现(包括状态管理、节点图构建、Agent实现等),并给出采购审批
企业智能助手优化闭环:从可用到可持续演进 本文探讨如何为企业智能助手构建完整的反馈优化体系,解决上线后常见的回答质量不稳定、知识滞后等问题。通过建立"采集-分析-决策-执行"闭环:1)采集对话日志、用户显隐性反馈;2)分析高频问题、失败模式和反馈聚类;3)生成可执行的优化项(知识更新/Prompt调整/策略改进);4)实施半自动知识更新和A/B测试。最终形成持续迭代机制,使助手
本文系统介绍了企业知识库智能问答系统的三种RAG(检索增强生成)实现方案。针对不同业务场景,提出模块化解决方案:简单RAG适用于小规模知识库快速验证;标准RAG采用向量+关键词混合检索提升召回稳定性;进阶RAG通过预处理和后处理优化信息相关性。文章从场景适配、实现方式、价值优势等维度详细解析各方案特点,旨在帮助企业根据知识库规模、查询复杂度等需求选择合适的RAG组合,构建高性能智能问答系统。三种方
摘要:检索增强生成(RAG)技术通过外部知识库检索与大模型生成相结合,有效解决大模型的知识滞后、幻觉输出和专业度不足问题。相比微调,RAG具有低成本、高灵活性和易落地优势,仅需更新知识库即可实现知识迭代。文章详细解析了RAG的核心技术原理、模块选型及国内外架构差异,包括数据预处理、向量数据库、检索器和生成模块等关键组件,为企业AI应用提供完整的解决方案。RAG已成为企业级AI落地的首选技术路径,在
RAG系统的切片技术是决定效果上限的关键环节,其本质是将原始知识转化为可被模型高效检索的语义单元。文章详细分析了六种切片方法:固定长度切片(实现简单但语义易断裂)、语义切片(质量高但计算成本大)、结构化切片(依赖文档逻辑)、重叠切片(提高召回率)、递归切片(适配异构文档)和混合切片(推荐组合策略)。提出实战建议:控制200-800字的合理粒度、使用10%-20%重叠比例、基于指标评估效果。强调RA
本文介绍了一种完全本地化的RAG系统构建方案,通过MindsDB、MCP客户端和Ollama技术实现多数据源查询。系统采用六步实施流程:1)运行MindsDB容器;2)访问本地图形界面;3)连接200+数据源;4)配置MCP服务器;5)设置本地客户端与LLM;6)创建Streamlit聊天界面。该方案无需云服务,保障数据安全,支持灵活组件替换,为开发者提供了学习大模型应用的实用教程,实现从单一界面
EAG-RAG是智能体增强的检索生成技术,构建了闭环自优化工作流程。通过深度知识工程、智能查询理解、多策略检索和质量保障机制,解决了传统RAG的知识时效性、"幻觉"问题及私有数据访问局限。系统利用大小型LLM智能体实现表格感知富集、智能切块、查询优化和答案校验,形成持续改进闭环,是企业级知识问答系统的关键技术。
RAG
——RAG
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net