logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

BERT模型(Attention注意力机制 + Transformer Encoder)

BERT模型利用大规模无标注的预料训练,获得包含文本内在语义信息的Representation。本文旨在入门BERT,初步了解了解BERT的工作原理

#transformer#自然语言处理#bert +2
到底了