logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

torch.cat()\torch.stack()\concat操作\FPN类模型通道特征合并

特征合并相关(concat)1、合并方法(1)FPN先用1*1卷积合并通道数,然后上采样,对应元素直接相加。如此合并之后为减少混叠效应,再用3*3卷积进行处理得到每一层级最后的特征图;除此之外,为不同层次的输出通道设置固定维数(因为所有层次都像传统的特征化图像金字塔一样使用共享的分类器/回归器)与此同时由于FPN不同级别特征图尺寸不同所以对应的锚框大小也不同(但是长宽比例都是相同的...

卷积神经网络(CNN)的通道计算过程(卷积网络的参数量计算方法、计算量计算方法)

以前一直对卷积的通道运算有一个误解,今天搞懂了,记录一下。其实很简单,产生一个输出通道需要与输入通道数相当的卷积模板数(这个为一组产生一个输出通道),如下图所示对应的卷积模板处理对应的输入通道,以上面的例子来说,第一个卷积模板处理第一个输入通道产生一个h*w(输入特征的大小)的feature,如此会产生三个相同大小的feature,再把不同通道相同位置的元素相加产生一个输出通道。...

深度学习 warmup 策略\Warmup预热学习率

推荐博客https://blog.csdn.net/sinat_36618660/article/details/99650804https://blog.csdn.net/comway_Li/article/details/105016725https://blog.csdn.net/longe20111104/article/details/88397152

神经网络参数初始化(MSRA、Xavier)

再推荐一篇感觉原理讲的很好的文章:https://blog.csdn.net/u014696921/article/details/53819512

【从神经网络到Transformer及NLP大模型的初步理解】

本文旨在对神经网络基础概念进行介绍,然后对NLP领域的发展脉络继续粗述,包括对当前大模型基础的Transfomer结构的由来、发展及原理进行简单说明,让大家对神经网络(深度学习)和当前的大模型以及涉及的预训练、微调等概念有个基本认识,其中涉及的数据学推理等并不作为本文说明的重点,大家有兴趣可以自行研究。(PS:其中涉及一些的对NLP模型的理解,大家见仁见智)

文章图片
#人工智能#神经网络#cnn +4
到底了