
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
目前,已经开放了AAAI2021的Accept Paper List, 本文精选了14篇**联邦学习(Federated Learning)**的入选论文,分类如下:隐私保护(Private Protection)278: Secure Bilevel Asynchronous Vertical Federated Learning with Backward UpdatingQingsong Z
强化学习(三):有限马尔可夫决策与贝尔曼方程夏栀的博客——王嘉宁的个人网站 正式上线,欢迎访问和关注:http://www.wjn1996.cn1、有限马尔可夫决策过程 有限马尔可夫决策过程(MDP)是强化学习的主要思想,也是后续多个解决强化学习目标的基本假设。 我们先来回顾一下强化学习的学习过程。强化学习的主体是智能体,与之相互交互的事物称为环境。当ttt时刻智能体所处某一个状...
博主最新科研论文已收录于ArXiv:利用强化学习与分层搜索提升关系抽取,欢迎阅读引用Title:RH-Net: Improving Neural Relation Extraction via Reinforcement Learning and Hierarchical Relational Searching下载地址:https://arxiv.org/abs/2010.14255Abstra
强化学习(七):n步自举法(多步引导法) 在之前,我们知道求解有限马尔可夫决策过程可以通过蒙特卡洛和时序差分来通过与环境多次交互从经验中学习,然而,蒙特卡洛方法在一些不满足分幕式任务或连续型任务上无法获得最终的收益,因此我们引入时序差分方法。时序差分的思想就是将下一时刻的状态价值或下一时刻的状态动作价值作为估计值,用于估计当前状态价值或动作价值。时序差分是一种结合采样和自举的方法,那么一种介于.
知识图谱核心技术(一):知识图谱的概述 前言: 知识图谱作为一项新的研究领域,极大地推动了人工智能的智能化发展,传统意义上的人工智能大多以数据驱动为核心,但离智能化还有一定的差距。知识图谱作为以知识为驱动的核心,将促使人工智能应用以知识赋能,促使计算机更具有推理力、解释性。博主经过多年的研究,结合自身的论文阅读和科研经历,并借助复旦大学知识工场团队编写的《知识图谱概念与技术(肖仰华)》作为理论支
主要讲解百度提出的ERNIE模型,基于知识增强的预训练语言模型
【预训练语言模型】CoLAKE: Contextualized Language and Knowledge Embedding(ICCL2020)核心要点:将文本与知识库统一为WK Graph格式,即将文本视为全连接图word graph,将文本中的entity mention检索的子图作为knowledge sub-graph,entity mention作为anchor node结合为WK

【预训练语言模型】KEPLER: A Unified Model for Knowledge Embedding and Pre-trained Language Representation核心要点:不引入任何参数实现知识融合;结合知识表示学习和MLM两个loss进行训练;构建新的benchmark:wikidata5M简要信息:序号属性值1模型名称KEPLER2发表位置ACL 20193所属领
【预训练语言模型】StructBERT: Incorporation Language Structures into Pre-training For Deep Language Understanding在预训练语言模型考虑文本的结构信息,并提出新的预训练任务,在word和sentence级别上融入结构信息。引入结构信息的语言模型,在GLUE、SQuAD和NLI等下游任务上达到了SOTA。备注
【预训练语言模型】K-BERT: Enabling Language Representation with Knowledge Graph核心要点:融合KG到BERT,并非是embedding融合,而是将KG和原始文本结合形成sentence-tree;根据sentence tree提出soft-position和visible matrix以避免knowledge noise;K-BERT在中
