logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

目标检测的PR曲线

参考对目标检测模型 PR 曲线的原理分析和实现 - sudit的文章 - 知乎https://zhuanlan.zhihu.com/p/365225772AP不是准确率,应该说是PR曲线下的面积,同时表征了查准率(precise)和查全率(Recall)查准率:TP/(TP+FP)查全率:TP/(TP+FN)那么如何调整查准率或者查全率以得到上面的PR曲线呢?——置信度阈值对于某一类,假设做NMS

#深度学习
FitNets: Hints for Thin Deep Nets:feature map蒸馏

这篇就比较简单了,就是从中间选一层feature map出来,T和S做个Loss来训S,训好了再用KD再训一遍S这里有个问题,文中用的S和T的宽度不一样(输出feature map的channel不一样),因此第一阶段还需要在S的feature map后加一个卷积层调channel和size。论文里好像就是用的普通的卷积,也没提到padding操作,这样的话就要求N_g>N_h了,也就是S的

#深度学习#计算机视觉#cnn
用知识量解释知识蒸馏

Explaining Knowledge Distillation by Quantifying the Knowledge用上篇文章提到的知识量的方法来解释知识蒸馏,主要是探讨通过知识蒸馏学出来的student network比通过train from scratch学出来的baseline的优点,以下Teacher, Student, Baseline分别用T,S,B代替。先从本文提出的假设之

#计算机视觉#深度学习#人工智能
np.arctan2(y,x)

补充知识:向量与坐标向量的坐标:一个二维向量,一般就用两个数字表示,比如[1,3]看起来像一个坐标,可以称之为向量的坐标实际上,向量的坐标=向量的尾坐标—向量的首坐标np.arctran2(y, x)则是计算向量[x,y]与向量[1,0]的角度当然,以(0,0)为起点,坐标(x,y)为终点的向量,向量的坐标=向量的尾坐标否则,向量的坐标=[(x2-x1),(y2-y1)]此外,np.arctan2

#几何学#线性代数
Information Bottleneck信息瓶颈理论

可以理解为一个损失函数信息瓶颈理论把神经网络理解为一个编码器和一个解码器,编码器将输入x编码成Z,解码器将Z解码成输出y而信息瓶颈理论的目标则是RIB(θ)R_{IB}(\theta)RIB​(θ)就是信息瓶颈,θ\thetaθ是网络的参数,也是要优化的东西I(Z,Y;θ)I(Z,Y;\theta)I(Z,Y;θ)就是输出Y和中间feature Z的互信息I(Z,X;θ)I(Z,X;\theta)

#决策树#机器学习#深度学习
coco数据集

API参考:https://blog.csdn.net/zym19941119/article/details/80241663获取filename:loadImgs(ids=[])得到图片的id信息后,就可以用loadImgs得到图片的信息了在这里我们随机选取之前list中的一张图片最终得到的img并不是一张numpy格式或是PIL格式的图片,而是一个字典,包含了我们找到的这个id...

到底了