logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

2025 ESWC An Algebraic Foundation for Knowledge Graph

本文提出了一种用于知识图谱构建的形式化代数框架,通过定义映射关系和代数运算符,为RML等映射语言提供了理论基础。该代数包含源运算符(从数据源提取数据)、扩展运算符(计算新属性)和关系代数运算符(投影、连接等),并给出了将RML转换为代数表达式的算法。基于代数等价规则,可实现优化映射计划的正确性证明。该工作填补了知识图谱映射语言缺乏形式化语义的空白,为后续优化和验证奠定了基础。

文章图片
#知识图谱#人工智能
2017 ijcai Multilingual Knowledge Graph Embeddings for Cross-lingual Knowledge Alignment

本文提出MTransE模型,通过多语言知识图嵌入实现跨语言知识对齐。针对现有跨语言对齐覆盖不足的问题,该模型为每种语言分配独立嵌入空间,并学习跨语言转换函数,同时保留单语嵌入功能。实验表明,线性变换变体在实体匹配(Hits@10达68.53%)和三重对齐验证(准确率94.90%)任务上表现最优,显著优于基线方法。该研究为知识库补全和跨语言应用提供了自动化的解决方案。

文章图片
#知识图谱#人工智能#机器学习
2023 ACL From Alignment to Entailment A Unified Textual Entailment Framework for Entity Alignment

本文提出了一种新颖的实体对齐方法TEA,将传统嵌入学习方法转化为基于预训练语言模型的文本蕴含任务。该方法通过统一处理关系三元组和属性三元组为文本序列,利用双向文本蕴含建模实体间细粒度交互。实验表明,在DBPZH-EN等跨语言数据集上,TEA显著优于现有方法,Hits@1达到87.0%,比最佳基线提升4.4%。这一成果为知识图谱对齐提供了新范式,实现了异构信息间的相互增强。

文章图片
#人工智能#自然语言处理#知识图谱
大模型下游任务必备:LORA

LoRA(Low-Rank Adaptation)是一种高效的模型微调技术,全称“Low-Rank Adaptation of Large Language Models”。它由微软研究团队提出,旨在解决大规模预训练模型微调时的资源消耗问题。LoRA 通过在原始权重矩阵上添加低秩更新矩阵,仅调整少量参数,而非全部权重,从而大幅降低计算和存储需求。这种方法在保持模型性能的同时,极大提升了微调的效率,

文章图片
#人工智能#自然语言处理#算法
到底了