logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

1.大模型技术概览

简要介绍目前大模型使用的各种技术和方法

文章图片
#人工智能
用BERT实现中文语句分类

BERT以Transformer的Encoder为架构,已MLM为模型,在很多领域取得历史性的的突破。这里以Transformers上基于中文语料库上训练的预训练模型bert-base-chinese为模型,以BertForSequenceClassification为下游任务模型,在一个中文数据集上进行语句分类。具体包括如下内容: 使用BERT的分词库Tokenizer 可视化BERT注意力

#bert#分类#深度学习
使用transformer实现图像分类

使用Transformer来提升模型的性能最近几年,Transformer体系结构已成为自然语言处理任务的实际标准,但其在计算机视觉中的应用还受到限制。在视觉上,注意力要么与卷积网络结合使用,要么用于替换卷积网络的某些组件,同时将其整体结构保持在适当的位置。2020年10月22日,谷歌人工智能研究院发表一篇题为“An Image is Worth 16x16 Words: Transformers

#transformer#分类#深度学习
第1章 可视化GPT原理

用可视化的方法介绍GPT原理

第3章 ChatGPT简介

ChatGPT简介

到底了