简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
【预训练语言模型】KG-BERT: BERT for Knowledge Graph Completion核心要点:知识图谱是不全的,先前的补全方法只是考虑稀疏的结构信息,忽略了上下文的文本信息;将实体、关系和三元组是为序列,并将知识图谱补全的任务视作序列分类任务;简要信息:序号属性值1模型名称MT-DNN2发表位置ACL 20193所属领域自然语言处理、预训练语言模型4研究内容预训练语言模型、多
本文主要讲解一种中文预训练语言模型——MacBERT,改进了MLM的策略,具体如何做,快来看看吧~
远程服务器Docker内配置和访问JupyterLab相关文章 如果远程服务器docker想通过pycharm实现代码调试,可参考博客pycharm与ssh远程访问服务器docker 如果远程服务器docker想部署Flask项目,可参考博客远程服务器docker部署Flask+MongoDB项目配置方法: 任意选择一个镜像,并创建相应的容器,创建容器及容器内的ssh和防火墙配置其可参考上述
快速将docker容器转移到其他服务器上 docker提供了可独立于宿主机的容器,通常单独为一个项目创建一个容器并在内部进行独立地进行环境配置。在某些场景下,需要将当前服务器的某一个docker容器转移到另一个linux服务器。因此,经过尝试,总结了一套相对比较容易的方案。首先,确保当前服务器与目标服务器是可连通的,即可通过ssh访问;在本机,将当前的容器提交为一个镜像,执行:sudo dock
Tensorflow实现BP神经网络摘要:深度学习中基本模型为BP深度神经网络,其包括输入层、隐含层和输出层。输入层的神经元个数取决于数据集属性特征的个数,输出层神经元个数取决于划分类标的个数。BP神经网络通过梯度下降法不断调整权重矩阵和偏向进行调参,实现神经网络的训练。 本人为初学者,自己尝试编写了tensorflow实现BP神经网络,输入层为三个神经元。隐含层为四个神经元、输出层为两个神..
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding(BERT) 前记: 【预训练语言模型】系列文章是对近几年经典的预训练语言模型论文进行整理概述,帮助大家对预训练模型进行全局的理解。本系列文章将不断更新,敬请关注博主。本文将讲解如今最为火爆的预训练模型——BERT,其于2018年底被提出
中学学科知识点数据集作者:王嘉宁 QQ:851019059 Email:lygwjn@126.com 在智慧教育领域知识图谱的研究中,需要提供相关学科的知识点数据集。在现有的网络资源中,本人博主发现无法找到关于中学学科知识点有关的开放数据集。本人利用寒假期间制作了有关中学(初中和高中)学科的知识点数据集,主要用于命名实体识别、关系抽取、文本分类等自然语言处理任务中。一、数据下载 可...
论文解读:Prefix-Tuning: Optimizing Continuous Prompts for Generation &emps;本文我们提出一种prefix-tuning方法,其是一个轻量级的fine-tuning方法用于自然语言处理的生成任务。该方法可以保持预训练语言模型参数固定(frozen),而只需要在task-specific vector(称为prefix)上进行优
抖音推荐的背后原理——大数据+推荐 大数据作为当前热门的话题,在软件开发与人工智能领域的敲门砖,各大厂都需要接触过大数据应用项目的人才。本文以大数据处理为出发点,浅层地讲述抖音推荐的背后原理。关键词:大数据、推荐系统、关系图谱、数据中台、联邦学习什么是大数据? 大数据具备5V特性分别是:(1)Volume:数据量大,包括采集、存储和计算的量都非常大。大数据的起始计量单位至少是P(1000个T)
论文解读:SpellBERT:A Lightweight Pretrained Model for Chinese Spelling Checking简要信息:序号属性值1模型名称SpellBERT2发表位置EMNLP20213所属领域自然语言处理、中文拼写纠错4研究内容中文拼写纠错5核心内容预训练语言模型6GitHub源码7论文PDFhttps://dl.acm.org/doi/10.1145/