
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
知识图谱(KGs)目前被广泛应用,但不论是传统的KGs和新建的KGs都会存在不完整的问题。虽然知识图谱嵌入(KGE)可以解决该类问题,但是「新兴的KG往往伴随着新的关系和实体,在已有KG上训练的KGE模型,是不能应用于在新建KG上去获取这些看不到的实体和关系的」。为此本文引入了元学习联邦设置,在现有KG上对一组任务进行采样,以模仿新兴KG上的链接预测任务,基于采样任务训练了一个图神经网络用于解决此

这几天!DeepSeek开源周 | 发布5个重要代码库,涉及AI基础设施建设的关键节点

从EMNLP2016至EMNLP2022,让你一文了解国际顶会EMNLP,另附历年EMNLP论文集。

来源:AINLPer 微信公众号(点击了解一下吧)编辑: ShuYini校稿: ShuYini时间: 2020-1-17引言 人工智能发展迅速,近几年自然语言处理已经成为热门研究方向,根据这些会议和期刊上近10年发表论文的引用情况(根据Goolge Scholar)生成了高引学者列表。供大家参考学习。1、Liang Huang【俄勒冈州立大学】个人主页:http://we...
来源:AINLPer微信公众号(点击了解一下吧)编辑: ShuYini校稿: ShuYini时间: 2019-8-29引言 当你在看论文的时候,经常会遇到编码器、解码器、自编码器(Autoencoder)这些字眼,它们到底是干什么的呢?其主要作用又是什么呢?那么本篇主要带大家了解自编码器(Autoencoder)。自编码器(Autoencoder)介绍自编码简单模型介绍 ...
来源:AINLPer 微信公众号编辑: ShuYini校稿: ShuYini时间: 2020-2-12引言 人工智能发展迅速,近几年自然语言处理已经成为热门研究方向,根据这些会议和期刊上近10年发表论文的引用情况(根据Goolge Scholar)生成了高引学者列表。供大家参考学习。1、Rico Sennrich【爱丁堡、苏黎世大学】个人主页:https://www.cl...
来源:AINLPer微信公众号编辑: ShuYini校稿: ShuYini时间: 2019-8-24引言 本次的两篇文章主要和Attention相关。第一篇是FaceBook AI团队基于Transformer提出的一种自适应注意力跨度算法,该算法在Transform的时候能够显著的扩展上下文的跨度。第二篇提出了一种新的Tree Transformer模型,该模型只需通过注意...
来源: AINLPer 微信公众号(每日论文干货分享!!)编辑: ShuYini校稿: ShuYini时间: 2021-11-21Paper:When Attention Meets Fast Recurrence:Training Language Models with Reduced Compute.我们知道由于计算时间和成本的增加,大型语言模型变得越来越难以训练。基于这个问题,今天给大家分
来源: AINLPer 微信公众号(每日更新…)编辑: ShuYini校稿: ShuYini时间: 2020-07-24引言:本次整理的论文还是主要偏向于机器阅读理解的问答(MRC-QA),其中主要涉及到双向注意流(BIDAF)网络、Gated Attention模型、AS Reader模型、问答句子识别、双向注意机制和层次表示学习的关系图神经网络、类人问答系统建立等。本次论文获取方式:1、关注A
2024!深入了解 大语言模型(LLM)微调方法(总结)
