logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

图像分类篇章-4-transformer,Vision TransFormer,swinTrans

transformer:RNN:记忆长度比较短。transformer:记忆长度无限长结构:核心:Attention的公式首先使用embedding层:embedding层是全连接层的一个特例。设输入向量为x,全连接层的权重参数矩阵为W,则该层的输出向量为y=Wx;只是在embedding层中,x为one-hot向量,例如:[0,1,0,0,0],则线性变换就退化成了一个查表操作。第一步:第二步:

#ubuntu
到底了