logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

2025 Arxiv Memento: Fine-tuning LLM Agents without Fine-tuning LLMs (Memento: 在不微调大语言模型的情况下微调其智能体)

背景: 现有的大语言模型(LLM)智能体要么依赖于固定的、手工制作的反射工作流,要么需要对LLM参数进行梯度更新,这两种方式都限制了其灵活性和适应性。前者僵化,后者计算成本高昂,不适用于在线持续学习。方案概述: 论文提出了一种名为Memento的新型学习范式,旨在实现自适应LLM智能体,且无需微调底层LLM。该方法通过基于记忆的在线强化学习实现低成本的持续适应。作者将此过程形式化为记忆增强马尔可夫

文章图片
#人工智能
2024 MathMatics Detect-Then-Resolve: Enhancing Knowledge Graph Conflict Resolution withLLM

摘要 知识图谱冲突消解是知识融合中的关键挑战,传统方法在处理未见实体时往往因知识有限而受限。本文提出CRDL方法,创新性地采用“先检测后解决”范式:首先通过冲突检测区分1-to-1和non-1-to-1关系,然后结合知识图谱嵌入评分和大型语言模型推理能力进行冲突消解。实验表明,CRDL的召回率和F1分数分别提升了56.4%和68.2%,显著优于基线方法。该研究首次将冲突检测与LLM能力相结合,为解

文章图片
#知识图谱#人工智能
2025 Large language models for intelligent RDF knowledge graph construction

本文探讨利用大型语言模型(LLMs)实现医疗本体自动映射,构建RDF知识图谱的创新方法。研究团队对GPT-4o、Claude 3.5等6个先进系统进行对比实验,提出融合BioBERT嵌入和ChromaDB向量检索的混合式语义映射引擎。实验结果表明,该方案在108个医疗术语数据集上表现优异,其中GPT-4o精确率达93.75%,F1分数达96.26%,显著优于传统方法。研究验证了LLMs在医疗知识图

#语言模型#知识图谱#人工智能
2025 IJCAI LLM4VKG: Leveraging Large Language Models for Virtual Knowledge Graph Construction

摘要:本文提出LLM4VKG框架,利用大型语言模型自动化构建虚拟知识图谱(VKG)。针对传统方法依赖专家知识、难以处理命名模糊性等问题,该框架通过Retriever、Matcher、Namer三级模块实现数据库与本体元素的对齐,结合四种映射模式(SH/SR/SRm/SE)生成VKG规范。在RODI基准测试中,LLM4VKG平均F1分数比现有最优方法提升17%,最高提升39%,且对不完整本体具有鲁棒

文章图片
#语言模型#知识图谱#人工智能
2024 arxiv LLM-Align: Utilizing Large Language Models for Entity Alignment in Knowledge Graphs

摘要:本文提出LLM-Align框架,利用大语言模型(LLM)提升知识图谱实体对齐效果。针对传统嵌入方法语义理解不足和LLM直接处理全量三元组效率低的问题,该框架采用三阶段流程:先由基线模型生成候选对齐,再通过启发式选择关键属性和关系构建提示词,最后引入多轮投票机制提升推理稳定性。在DBP15K跨语言数据集上的实验表明,LLM-Align显著优于现有方法,最高提升Hits@1达3.2%,在ZH-E

#语言模型#知识图谱#人工智能
2024 Mathematics Detect-Then-Resolve: Enhancing Knowledge Graph Conflict Resolution with LLM

本文提出了一种名为CRDL的创新方法,通过结合冲突检测和大语言模型(LLM)来提升知识图谱冲突解决的性能。该方法首先针对不同关系类型实施精准过滤策略,然后利用精心设计的Prompt工程,使LLM能够有效识别包含未见实体的三元组。实验结果显示,CRDL在召回率和F1分数上分别比现有方法提升了56.4%和68.2%。该研究为知识融合过程中的冲突解决提供了更鲁棒的解决方案,显著提高了知识图谱的数据质量。

文章图片
#知识图谱#人工智能
2025 AAAI HLMEA: Unsupervised Entity Alignment Based on Hybrid Language Models

本文提出了一种基于混合语言模型的无监督实体对齐方法HLMEA,通过创新的"过滤-选择"两阶段框架解决知识图谱融合中的关键问题。该方法首先利用小型语言模型(SLM)进行高效候选实体筛选,再通过大型语言模型(LLM)进行精确匹配决策,并设计了迭代自训练机制实现SLM和LLM的协同优化。实验表明,HLMEA在多个基准数据集上显著优于现有监督和无监督方法,为知识图谱对齐提供了新的有效解

文章图片
#知识图谱
2024 arXiv Cost-Efficient Prompt Engineering for Unsupervised Entity Resolution

本文探讨了使用大型语言模型(LLM)进行无监督实体解析(ER)的提示工程方法。研究比较了六种不同的提示策略在电商数据集上的表现,发现GPT-3.5在无监督ER任务中表现良好(F1>80%),但更复杂的提示方法未必优于简单方法。例如,单属性提示在成本降低37%的情况下性能与多属性方法相当。研究还发现,结构化JSON格式会降低性能,而相似度评分提示在不同数据集上表现不稳定。这些结果表明LLM为E

文章图片
KAG: Boosting LLMs in Professional Domains via Knowledge Augmented Generation

KAG框架通过深度融合知识图谱与传统RAG技术,提出专业领域知识服务解决方案。其核心创新包括LLM友好的知识表示方法、逻辑形式引导的混合推理引擎、基于语义推理的知识对齐机制,以及针对KAG的模型能力增强策略。在多跳问答任务中,KAG较SOTA方法取得显著提升(HotpotQA F1提升19.6%,2WikiMultiHopQA提升33.5%),并已成功应用于电子政务和电子健康领域。该框架将集成到开

文章图片
#boosting#人工智能#集成学习
2026 SIGMOD ST-Raptor: LLM-Powered Semi-Structured Table Question Answering

ST-Raptor提出了一种基于大语言模型(LLM)的半结构化表格问答框架,通过创新的层次正交树(HO-Tree)表示法解决复杂表格布局处理难题。该框架将表格构建为元数据树和主体数据树,设计了流水线式问答机制,将复杂问题分解为原子操作步骤,并引入两阶段验证确保可靠性。实验在新构建的SSTQA数据集上进行,结果显示ST-Raptor比现有方法最高提升20%的准确率。该研究为金融、医疗等领域的半结构化

文章图片
#人工智能#数据分析
    共 19 条
  • 1
  • 2
  • 请选择