logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

transformer模型学习路线

Transformer学习路线完全不懂transformer,最近小白来入门一下,下面就是本菜鸟学习路线。Transformer和CNN是两个分支!!因此要分开学习Transformer是一个Seq2seq模型,而Seq2seq模型用到了self-attention机制,而self-attention机制又在Encoder、Decode中。因此学习将从self-Attention->Seq2

文章图片
#transformer#深度学习#nlp +1
问题:github上不了,但是其他网页可以正常打开

github上不了,但是其他网页可以正常打开,试了关闭防火墙,dns刷新,都没用后,参考以下文章成功打开Github

文章图片
#github
GPT系列模型

上一篇写了Transformer,听了李宏毅和李沐老师的课一下子就懂了,今天学习GPT-123GPT和BERT的区别还在于目标函数的选取,GPT预测未来,BERT预测中间(完形填空)GPT核心思想:无标签文本数据预训练+有标签数据微调GPT-2核心思想:只用无标签数据进行预训练,让模型自己学会解决多任务问题GPT-3核心思想:不进行梯度更新或者微调,仅使用个别示......

文章图片
#transformer#深度学习#自然语言处理
论文阅读:multimodal remote sensing survey 遥感多模态综述

从多模态表示,对齐,融合,跨模态转换,协同学习等5个大方面来介绍在遥感领域的分类和相关工作

文章图片
#计算机视觉#人工智能
transformer模型学习路线

Transformer学习路线完全不懂transformer,最近小白来入门一下,下面就是本菜鸟学习路线。Transformer和CNN是两个分支!!因此要分开学习Transformer是一个Seq2seq模型,而Seq2seq模型用到了self-attention机制,而self-attention机制又在Encoder、Decode中。因此学习将从self-Attention->Seq2

文章图片
#transformer#深度学习#nlp +1
卷积层参数计算与设置

卷积层维度计算与设置卷积结构CNN结构:Input(输入层)----> Conv(卷积)---->Relu(激活)---->Pool(池化)---->FC(全连接)输入层参数介绍:batch_size:相当于一次训练的样本数weight/height:图片宽和高channels:图片通道数,1是黑白,3是RGB卷积层参数介绍:filter = 卷积核(1x1,3x3,5x5

#cnn#深度学习
C#学生管理系统——连接Access数据库(登陆功能)

C#连接Access数据库(登陆功能)小白自己打算做一个学生管理系统,打算写下自己的心得和步骤,本次采用C#和ACCESS数据库,开发环境用的VS2013,如有幸被别人看到,勿喷。首先做了一个login登陆界面用户名和密码用的是lable控件,文本框text控件,分别起名为textuser和textpsw,登陆用的button控件。下面是btn_login登陆按钮对应的事件1.获取用户...

#visual studio#数据库#c#
卷积层参数计算与设置

卷积层维度计算与设置卷积结构CNN结构:Input(输入层)----> Conv(卷积)---->Relu(激活)---->Pool(池化)---->FC(全连接)输入层参数介绍:batch_size:相当于一次训练的样本数weight/height:图片宽和高channels:图片通道数,1是黑白,3是RGB卷积层参数介绍:filter = 卷积核(1x1,3x3,5x5

#cnn#深度学习
BraTs数据集处理及python读取.nii文件

BraTs数据集及python读取.nii文件医学文件

文章图片
#python#计算机视觉#深度学习 +1
到底了