
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
GPT系列模型
上一篇写了Transformer,听了李宏毅和李沐老师的课一下子就懂了,今天学习GPT-123GPT和BERT的区别还在于目标函数的选取,GPT预测未来,BERT预测中间(完形填空)GPT核心思想:无标签文本数据预训练+有标签数据微调GPT-2核心思想:只用无标签数据进行预训练,让模型自己学会解决多任务问题GPT-3核心思想:不进行梯度更新或者微调,仅使用个别示......

论文阅读:multimodal remote sensing survey 遥感多模态综述
从多模态表示,对齐,融合,跨模态转换,协同学习等5个大方面来介绍在遥感领域的分类和相关工作

transformer模型学习路线
Transformer学习路线完全不懂transformer,最近小白来入门一下,下面就是本菜鸟学习路线。Transformer和CNN是两个分支!!因此要分开学习Transformer是一个Seq2seq模型,而Seq2seq模型用到了self-attention机制,而self-attention机制又在Encoder、Decode中。因此学习将从self-Attention->Seq2

卷积层参数计算与设置
卷积层维度计算与设置卷积结构CNN结构:Input(输入层)----> Conv(卷积)---->Relu(激活)---->Pool(池化)---->FC(全连接)输入层参数介绍:batch_size:相当于一次训练的样本数weight/height:图片宽和高channels:图片通道数,1是黑白,3是RGB卷积层参数介绍:filter = 卷积核(1x1,3x3,5x5
BraTs数据集处理及python读取.nii文件
BraTs数据集及python读取.nii文件医学文件

到底了







