
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
一、神经网络梯度消失与梯度爆炸(1)简介梯度消失与梯度爆炸层数比较多的神经网络模型在训练的时候会出现梯度消失(gradient vanishing problem)和梯度爆炸(gradient exploding problem)问题。梯度消失问题和梯度爆炸问题一般会随着网络层数的增加变得越来越明显。例如,对于图1所示的含有3个隐藏层的神经网络,梯度消失问题发生时,靠近输出层的hidden lay
在同一个文件夹下调用函数:A.py文件:def add(x,y):print('和为:%d'%(x+y))B.py文件:import AA.add(1,2)或from A import addadd(1,2)调用类:A.py文件:class A:def __init__(self,xx,yy):self.x=xxself.y=yydef add(self):print("x和y的和为:%d"...
https://github.com/kemaloksuz/ObjectDetectionImbalance
参考文章:https://zhuanlan.zhihu.com/p/77151308PCA(Principal Component Analysis) 是一种常见的数据分析方式,常用于高维数据的降维,可用于提取数据的主要特征分量。PCA 的数学推导可以从最大可分型和最大重构性两方面进行,前者的优化条件为划分后方差最大,后者的优化条件为点到划分平面距离最小。由于基于最大重构性的 PCA 其与 LDA
https://github.com/kemaloksuz/ObjectDetectionImbalance
前言之前我所在的公司七月在线开设的深度学习等一系列课程经常会讲目标检测,包括R-CNN、Fast R-CNN、Faster R-CNN,但一直没有比较好的机会深入(但当你对目标检测有个基本的了解之后,再看这些课程你会收益很大)。但目标检测这个领域实在是太火了,经常会看到一些写的不错的通俗易懂的资料,加之之前在京东上掏了一本书看了看,就这样耳濡目染中,还是开始研究了。今年五一,从保定回京,怕高速路上
这篇文章写作于2016年12月,今天整理博客才发现它一直静静地躺在我的草稿箱里。第一次了解汉明距离好像是在数电课上,老师在讲编码的原理?记不太清了。后来做毕设时,老师希望我在我的设计中添加一个判断走势图是否相近似的小程序。###汉明距离用于编码,简单来说,判断两个序列是否相似,则判断是否有不同的位数。举例:A = [0, 0, 1, 0]B = [0, 1, 1, 0]则AB有一位不同,汉明距离为
ASFF:自适应特征融合方式ASFF来自论文:《Learning Spatial Fusion for Single-Shot Object Detection》,也就是著名的yolov3-asff。金字塔特征表示法(FPN)是解决目标检测尺度变化挑战的常用方法。但是,对于基于FPN的单级检测器来说,不同特征尺度之间的不一致是其主要限制。因此这篇论文提出了一种新的数据驱动的金字塔特征融合方式,称之
本文用于理解ROC曲线的定义,绘制过程及其应用实现,主要用于自我温习回顾基础基本目录如下:什么是ROC曲线?1.1 ROC曲线的历史1.2 ROC曲线的定义1.3 ROC曲线的应用场景如何绘制ROC曲线?2.1 ROC曲线的绘制原理2.2 ROC曲线绘制的Python实现------------------第一菇 - 什么是ROC曲线------------------1.1 ROC曲线的历史自从
文章目录focal loss 提出的场景和针对的问题focal loss 提出的场景:目标检测focal loss 针对的问题:类别不平衡如何处理目标检测下的类别不平衡如何理解目标检测场景下的样本和类别two-stageone-stagefocal loss的算法focal loss的思想focal loss的局限假设的局限适用场景的局限