logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

预训练模型:BERT

0. BERT总述BERT全称为 Bidirectional Encoder Representation from Transformers(来自 Transformers 的双向编码器表示),是谷歌2018年发表的论文中1,提出的一个面向自然语言处理任务的无监督预训练语言模型。其意义在于:大量无标记数据集中训练得到的深度模型,可以显著提高各项自然语言处理任务的准确率。BERT采用Transfo

#rnn#神经网络#深度学习
自然语言处理(NLP)之一:文本预处理(文本准备)

拿到文本数据后,自然语言处理任务的第一步工作是文本(数据)准备或叫文本(数据)预处理。文本预处理的流程如下图所示:

#python#自然语言处理#开发语言
自然语言处理(NLP)之五:知识图谱

现在的很多数据是互相连接的,如果想分析这些链接的价值,知识图谱可以是一种有效的工具。而且随着万物互联时代的到来,链接中所包含的信息必然会发挥更大的价值,这也是为什么知识图谱在最近几年发展这么快的主要原因。知识图谱的概念、应用、构建知识图谱的定义知识图谱是2012年Google公司提出的一个新名词,这项技术的出现可以追溯到上世纪的六七十年代,在Google公司为发展产业化将其称为知识图谱之前,它一直

#知识图谱#自然语言处理
自然语言处理(NLP)之一:文本预处理(文本准备)

拿到文本数据后,自然语言处理任务的第一步工作是文本(数据)准备或叫文本(数据)预处理。文本预处理的流程如下图所示:

#python#自然语言处理#开发语言
暂无文章信息