登录社区云,与社区用户共同成长
邀请您加入社区
目的:解决大语言模型(如GPT-4、Claude 3)的两大痛点——“知识幻觉”(编造不存在的事实)和“知识过时”(无法更新最新信息)。范围:本文聚焦“提示工程架构师”的知识图谱构建流程,涵盖从需求分析到应用落地的全链路,重点讲解核心概念、算法原理与实战案例。本文分为“概念讲解→原理剖析→实战案例→应用场景→未来趋势”五大模块,像“教你编一本AI能读懂的百科全书”一样,逐步展开。知识图谱:AI的“
ToG通过“LLM ⊗ KG”范式实现了LLM与KG的深度协同,提升了LLM的深度推理能力、可解释性和知识更新效率。其免训练、低成本、高性能的特点,为解决LLM幻觉问题和知识密集型任务提供了新方案。
摘要:本报告探讨了本体论中公理与规则在智能系统中的核心作用。公理界定概念本质属性,规则实现逻辑推理。截至2025年,技术工具已成熟,应用重点转向知识图谱和神经符号AI两大领域:在知识图谱中,公理与规则保障数据质量但面临性能瓶颈;在神经符号AI中,它们为机器学习提供逻辑约束和可解释性框架。报告分析了理论基础、技术实现、应用挑战及融合前景,指出未来发展趋势是优化大规模知识推理和深度集成神经符号系统,以
GraphRAG(基于图的检索增强生成)就像是给你的AI装了一张知识地图,让它能自由导航。传统的AI系统,比如聊天机器人,通常靠简单搜索找答案。它们在文本堆里找关键词,有时候会漏掉整体的大局。GraphRAG通过将信息组织成一个知识图谱来改变这一现状——这是一个由节点(比如人、地点或事物)和它们之间的关系(比如“居住在”或“为某人工作”)构成的互联网络。想象一个社交网络:GraphRAG不仅知道“
近段时间,如果说不知道Agent,好像都不知道怎么聊天了。看各种文章,感觉Agent有点妖魔化:**一个提示 + 一堆****工具 + 一个循环搞定一切**的理想范式给带沟里了。幸好在github上看到了12-factor-agents的独特见解,忍不住想跟大家聊聊:**AI Agent到底是个啥?****Agents are so****ftware, and a brief history t
`gemini-cli` 从开源至今仅一个多月,已经收获接近65K Star,作为第一个开源的通用命令行智能体工具,在开源社区贡献者的参与下,现如今功能已经非常完善。本文将对源码进行解析,学习其中优秀Agent的设计思路,将重点关注主控Agent以及上下文管理的实现,对于其他部分不在本文的讨论范围之内。
agent在处理长时程任务时仍面临重大挑战。论文(Beyond Ten Turns: Unlocking Long-Horizon Agentic Search with Large-Scale Asynchronous RL)提出了ASearcher——一个用于训练基于大语言模型的搜索agent的开源框架,该agent具备长时程、专家级搜索能力。研究解决了以往开源方法的两大关键局限:交互轮次限制
本文详细介绍了基于Dify 1.5.1搭建知识库的全流程,包括平台基本概念、本地部署方法以及知识库的具体搭建步骤。文章重点讲解了Dify的两种知识库分段模式(通用模式和父子模式)及其区别,以及索引方法与检索设置的多种选项。通过Dify的低代码界面,开发者可以快速构建企业级AI应用,实现私有数据的智能管理与精准应用,特别适合注重数据安全的企业使用。
RAG与微调作为大模型的两种核心技术,各自具有独特优势与局限。微调使模型内化特定知识但知识静态,RAG提供动态知识但检索能力有限。两者结合能产生1+1>2的协同效应:微调优化RAG的框架,RAG为微调提供实时更新的知识。深度融合正成为新趋势,通过数据与模型层面的结合,可提升知识准确性、领域适应性,减少数据需求,适用于专业问答、智能写作等场景。这种互补融合是释放大模型潜力的关键路径。
同时课程详细介绍了。
知识图谱构建方法摘要 本文介绍了一种将任意文本转化为概念图(Graph of Concepts)的实用方法。该方法通过以下步骤实现:1)将文本分割为块;2)使用开源LLM(如Mistral 7B)提取概念及其语义关系作为节点和边;3)基于上下文邻近性建立概念间关联;4)合并相似概念对并计算权重。采用NetworkX进行图处理,支持可视化交互操作(节点拖动、缩放等)。与传统的检索增强生成(RAG)相
知识图谱作为结构化知识的强大表示方式,正在成为人工智能领域的核心基础设施。传统知识图谱构建方法往往需要大量人工干预,但如今大型语言模型(LLM)的出现彻底改变了这一局面。本文将详细介绍如何使用LLM图转换器技术,自动化地从非结构化文本中构建高质量知识图谱。知识图谱以图结构表示实体、概念及其关系,而LLM具有强大的文本理解和生成能力。两者的结合创造了前所未有的知识提取和表示能力。
本文将带大家用 LangChain 框架,结合向量数据库,构建一个简易的 RAG 系统,并完成一个端到端的问答任务。
本篇文章主要是教大家如何在本地部署的Dify进行配置自定义的大模型以及获取一些免费的大模型API Key
一文读懂RAG技术:从基础框架到知识图谱融合实践
手把手带大家一站式部署应用开源项目RAGFlow,轻松get你的个人知识库和专属Agent助手~
我们今天就分享一个开源的可以本地运行的GPT,名称叫LocalGPT,看名字就知道是运行在本地的,我们详细介绍下。
文章介绍了基于大模型的AI Agent技术,这是一种能在无人干预下自主决策和执行任务的系统。相比传统AI的"辅助驾驶",AI Agent已能"自己开车"。文章阐述了Agent的四大核心能力:信息处理能力、推理/规划能力、工具使用能力和记忆/知识能力,并介绍了OpenAI等公司推出的Agent产品及相关开发框架,为开发者提供了学习路径和实践指导。
超强利器 RAGFlow 来了!这款开源神器将彻底颠覆你的信息检索体验,让工作效率飞升到全新高度!
本文主要介绍了为企业管理者、产品经理、技术负责人和开发者提供一套从概念到技术变革的系统性框架,帮助小伙伴们成功地将AI Agent从概念转化为实际价值。
本文主要介绍如何在Ubuntu操作系统环境下,零基础快速安装Docker环境、安装Ollama、安装本地大模型DeepSeek-R1和大模型可视化工具Open WebUI,快速在本地搭建一款专属AI智能小助手。
在本教程中,我们将学习如何利用本地ollama的向量模型进行嵌入;以及利用内存数据库进行向量检索。同时附上了如何自定义向量嵌入的教程。
LangGraph Platform 快速入门 本指南介绍如何在本地运行 LangGraph 应用程序。
一起学LangGraph构建agent专题---预构建的代理-多智能体(六),大模型入门到精通,收藏这篇就足够了!
下面开始第二部分-预构建的代理;下面演示完整的示例代码及输出的结果;详细的概念定义可以参考每小节对应的官方描述
下面继续开始第一部分-基础知识;下面演示完整的示例代码及输出的结果;详细的概念定义可以参考每小节对应的官方描述,
LangGraph 是由LangChain团队开发的开源框架,专为构建状态化、多代理(Multi-Agent)系统而设计。
AI(Artificial Intelligence)是研究如何利用机器模拟人类智能的一门技术,简单来说就是让计算机像人类一样思考和行动,甚至超过人类的智能。能听会思:以自然语言处理技术为代表的发展路线,ChatGPT等会说会看:以计算机视觉、语言合成等技术为代码的发展路线,人脸识别等能动会做:以机器人技术为代表,仿生机器人、自动驾驶等。
本文全面介绍AI智能体与大数据技术体系,涵盖数据治理框架、数据湖/仓架构、批流一体技术等核心内容,提供从技术框架到实施落地的完整方案,适合技术人员学习参考,助力读者系统掌握大数据与AI智能体相关知识。2025 AI 智能体大厂逻辑架构图数据治理总体方案批流一体大数据技术框架数据仓库数据湖数据标准数据湖-技术架构技术指标体系项目管理-十大知识域数据平台-数据应用数据治理框架数据治理价值数据治理平台大
RAGFlow也改进了很多工作流设计方面的内容,这些都是以后慢慢去测试的,目的是能够准确地满足个人业务。本次采用的操作系统是ubuntu22.02版本。
本文提出了一种用于知识图谱构建的形式化代数框架,通过定义映射关系和代数运算符,为RML等映射语言提供了理论基础。该代数包含源运算符(从数据源提取数据)、扩展运算符(计算新属性)和关系代数运算符(投影、连接等),并给出了将RML转换为代数表达式的算法。基于代数等价规则,可实现优化映射计划的正确性证明。该工作填补了知识图谱映射语言缺乏形式化语义的空白,为后续优化和验证奠定了基础。
今天我要给大家介绍一个最近在GitHub上爆火的开源项目—— Wren AI,它正在彻底颠覆我们与数据交互的方式!
我们增加了对 Anthropic API 格式的支持,让大家可以轻松将 DeepSeek-V3.1 的能力接入 Claude Code 框架。
推荐个人结合你的业务,再考虑上面的条件,判断学习哪个平台,避免浪费时间,还得不到想要的结果。想要学习n8n的,可以关注我,带你轻松入门。有工作流需求的,也可以联系,交付稳定的生产级工作流。我是富百,自动化专家,不懂代码,但懂AI,专注AI工作流解决方案。让大家不做重复低效的事情。
本文介绍了一种结合知识图谱与大语言模型的方法,用于自动推荐接力催化反应路径。研究团队构建了包含15881篇文献和27760个催化反应的Cat-KG,通过查询和评分规则筛选路径,再由GPT-4生成可读描述。该方法能在几分钟内推荐目标化合物反应路径,包括已知和新路径,显著提高研究效率,为催化化学领域智能化发展提供技术支撑。最近,厦门大学程俊教授课题组、王野教授课题组与英国爱丁堡大学Jeff Z. Pa
《尾巴式AI技术碎碎念》 猫猫和狐狐用撒娇对话形式分享了AI技术知识:大模型参数增长如尾巴增多,但需通过量化、蒸馏"减重";NLP预处理像整理书柜,分词、去停用词各有妙用;RAG机制让AI能"翻小抄"检索外部知识;而AI"幻觉"如同猫猫的脑补,源于概率预测而非真实理解。文中穿插图像生成、翻译进化等应用场景,将技术概念转化为"打扫
摘要:随着自然语言处理(NLP)技术向语义理解深化,基于Transformer的深度学习模型(如BERT、GPT)虽表现卓越,但其黑箱特性、逻辑缺失及数据依赖问题日益凸显。为此,学界探索将公理化体系(Axiomatic Systems)引入语义分析,通过神经-符号混合架构(Neuro-Symbolic AI)增强模型的逻辑推理能力与可解释性。公理模型通过形式化逻辑(如一阶谓词)、依存句法分析和知识
2025 年,随着大语言模型 (LLM) 技术的持续突破,AI Agent 已经成为大模型从实验室概念成为迈向企业级应用的关键转折点。
微软开源的PIKE-RAG框架是一个强大的工具,专为工业领域及其他多个专业领域设计,以处理复杂私域知识的理解和推理。以下是对PIKE-RAG框架的概括及其在各个应用场景中的详细分析:
1. GPU依赖区分1. 必须GPU:RAGFlow(复杂解析)、AnythingLLM本地模式(大模型推理)
文章介绍了大模型微调的基本概念、作用和LoRA技术的原理。微调可提升模型在特定任务上的表现,而LoRA通过低秩矩阵减少需更新的参数量,显著降低计算资源需求。文章详细讲解了微调过程,包括数据准备、参数设置、模型训练和评估,并通过代码实例展示了如何使用LoRA微调一个67M的Bert模型实现电影评论分类功能。
无需折腾环境,也不用写一行代码,把 PDF、Word、网页统统拖进去,即刻拥有一个私有化 ChatGPT——这就是 AnythingLLM 的魔法。
最近有个很有意思的现象,说自己是“开发者”的人越来越多了。产品转开发、设计转开发、运营自学全栈…,自我介绍很多说自己是开发,好像突然开发的门槛消失了。
知识图谱
——知识图谱
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net