logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

目标检测之小目标检测和遮挡问题

小目标检测trick小目标难检测原因小目标在原图中尺寸比较小,通用目标检测模型中,一般的基础骨干神经网络(VGG系列和Resnet系列)都有几次下采样处理:导致小目标在特征图的尺寸基本上只有个位数的像素大小,导致设计的目标检测分类器对小目标的分类效果差。如果分类和回归操作在经过几层下采样处理的 特征层进行,小目标特征的感受野映射回原图将可能大于小目标在原图的尺寸,造成检测效果差。小目标在原图中的数

#计算机视觉#深度学习
数学概率之z=x+y和z=x-y和z=x/y的分布

Z=X+Y 的分布设(X,Y)的概率密度为f(x,y),则Z=X+Y的分布函数为:故Z=X+Y的概率密度为:由X,Y的对等性,fZ(z)f_{Z}(z)fZ​(z) 又可写成卷积公式:如果X和Y相互独立时,Z=X+Y的密度函数公式称为卷积公式即:fZ(z)=∫−∞+∞fX(z−y)fY(y)dy=∫−∞+∞fX(x)fY(z−x)dxf_{Z}(z)=\int^{+\infty}_{-\infty

机器学习之支持向量机,SVM与LR(逻辑回归)的区别?

什么是支持向量机,SVM与LR的区别?支持向量机为一个二分类模型,它的基本模型定义为特征空间上的间隔最大的线性分类器。而它的学习策略为最大化分类间隔,最终可转化为凸二次规划问题求解。LR是参数模型,SVM为非参数模型。LR采用的损失函数为logisticalloss,而SVM采用的是hingeloss。在学习分类器的时候,SVM只考虑与分类最相关的少数支持向量点。LR的模型相对简单,在进行大规模线

#机器学习#支持向量机
深度学习之知识蒸馏(Knowledge Distillation)

本文参考以下链接,如有侵权,联系删除论文参考引言知识蒸馏是一种模型压缩方法,是一种基于“教师-学生网络思想”的训练方法,由于其简单,有效,在工业界被广泛应用。Knowledge Distillation,简称KD,顾名思义,就是将已经训练好的模型包含的知识(”Knowledge”),蒸馏(“Distill”)提取到另一个模型里面去。温度: 我们都知道“蒸馏”需要在高温下进行,那么这个“蒸馏”的温度

#深度学习#人工智能
暂无文章信息