![](../../asset/images/user/BgImg_default.jpg)
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
小目标检测trick小目标难检测原因小目标在原图中尺寸比较小,通用目标检测模型中,一般的基础骨干神经网络(VGG系列和Resnet系列)都有几次下采样处理:导致小目标在特征图的尺寸基本上只有个位数的像素大小,导致设计的目标检测分类器对小目标的分类效果差。如果分类和回归操作在经过几层下采样处理的 特征层进行,小目标特征的感受野映射回原图将可能大于小目标在原图的尺寸,造成检测效果差。小目标在原图中的数
Z=X+Y 的分布设(X,Y)的概率密度为f(x,y),则Z=X+Y的分布函数为:故Z=X+Y的概率密度为:由X,Y的对等性,fZ(z)f_{Z}(z)fZ(z) 又可写成卷积公式:如果X和Y相互独立时,Z=X+Y的密度函数公式称为卷积公式即:fZ(z)=∫−∞+∞fX(z−y)fY(y)dy=∫−∞+∞fX(x)fY(z−x)dxf_{Z}(z)=\int^{+\infty}_{-\infty
什么是支持向量机,SVM与LR的区别?支持向量机为一个二分类模型,它的基本模型定义为特征空间上的间隔最大的线性分类器。而它的学习策略为最大化分类间隔,最终可转化为凸二次规划问题求解。LR是参数模型,SVM为非参数模型。LR采用的损失函数为logisticalloss,而SVM采用的是hingeloss。在学习分类器的时候,SVM只考虑与分类最相关的少数支持向量点。LR的模型相对简单,在进行大规模线
本文参考以下链接,如有侵权,联系删除论文参考引言知识蒸馏是一种模型压缩方法,是一种基于“教师-学生网络思想”的训练方法,由于其简单,有效,在工业界被广泛应用。Knowledge Distillation,简称KD,顾名思义,就是将已经训练好的模型包含的知识(”Knowledge”),蒸馏(“Distill”)提取到另一个模型里面去。温度: 我们都知道“蒸馏”需要在高温下进行,那么这个“蒸馏”的温度