
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
图像分类篇章-4-transformer,Vision TransFormer,swinTrans
transformer:RNN:记忆长度比较短。transformer:记忆长度无限长结构:核心:Attention的公式首先使用embedding层:embedding层是全连接层的一个特例。设输入向量为x,全连接层的权重参数矩阵为W,则该层的输出向量为y=Wx;只是在embedding层中,x为one-hot向量,例如:[0,1,0,0,0],则线性变换就退化成了一个查表操作。第一步:第二步:
到底了







