
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
1 前言我觉得DCN是一个十分具有实力的技术,在Deformable-DETR跟PP-YOLO中都有用到DCN;2 DCN的特点理论上可以获得任意大小的感受野(由于其deformable的特性)
【中英字幕】Andrej Karpathy | 详解神经网络和反向传播(基于micrograd)- 知识点目录

2 备注2.1 在竞赛中,可以会出现提供的数据不符合测试集分布的情况根据百度车道线冠军的经验:数据清洗上,最一开始采用了全部数据训练,发现loss经常出现不规则的跳动,经过排查,发现road 3存在几乎一半以上图像过曝的问题,并且road 3大多在强光下拍摄,不符合测试集的分布,所以很果断的舍弃了road 3,分数也提升了0.01左右(好神奇。。。)。这就说明了,在数据来源不同...
1 前言图像增广的根本目的是增加信息量、使模型获得高层语义信息,获得对问题有着更深的理解,从而提升准确率,(在客观上,因为丰富了信息量,所以也同时具有防止过拟合的作用)。图像增广和图像预处理不是相同的操作,两者的目的不同,我觉得图像预处理是为了防止测试集跟训练集的“风格”不同而实现的;赵老师讲到的图像增广策略:image crop,color shift,rotation...
1 前言今天在学习PyTorch~在进行训练时,有一个需求就是,我们需要用一个整形的数字作为样本图片的唯一ID,我想到的方法就是使用Hash算法对图片的内部路径进行编码~2 在Python中获取图片的唯一编码3 将编码转换为torch.Tensor我曾经试过将获得的Hash编码转成IntTensor,不过没有成功,因为用hashlib生成的Hash值太长了,用IntTensor...
1 致谢感谢网友顾北向南提供的解读,(不过有些地方我还是不完全赞同)博文:《EfficientNet系列模型》2 EfficientNet模型——EfficientNet: Rethinking Model Scaling for Convolutional Neural NetworksEfficientNet模型的原始论文是《EfficientNet: Rethinking Model Sca
key words: Feature Normalization1 介绍在这篇博文中,我们将介绍特征归一化(Feature Normalization)方法;特征归一化FN一般用于图像预处理中,使用T.Normalize(mean, std)来实现;所以在进行归一化操作时,我们需要知道数据分布的mean和std;这里,我们认为:mead&std是从训练集中获得的。于是,首先来看看怎么获得训
1 前言让模型最好的学会train集数据的第一步,就是首先让模型过拟合;2 减小学习率过小的学习率会让模型过拟合,这是我在车道线冠军代码里面看到的,gujingxiao同学是这样说的:由于测试集与训练集在图像质量和视觉感知上差距不小,太小的学习率很容易导致过拟合,所以最小的学习率采用0.0001。...
1 前言后处理方法是很重要的,我在学习训练COCO数据集时深有体会,这里用笔记记录一下后处理的相关知识2 常用的后处理方法后处理方式推荐的使用顺序:阈值过滤 →\rightarrow→ 按类别Top-K →\rightarrow→按类别NMS2.1 阈值过滤——最简单的后处理设置一定的阈值范围对boxes进行过滤,感觉0.5一般是不错的选择;2.2 NMS——最常用的后处理方法2.3 Top-K—
1 致谢感谢网友lihe2019提供的资料——《Ubuntu 16.04 Nvidia驱动安装(run方式)》感谢网友xunan003提供的资料——《ubuntu16.04系统run方式安装nvidia显卡驱动》2 服务器配置3 安装第三方软件依赖4 数据集收集5 评价指标5.1 TTR——田老师讲授的“虚警率”TTR=TFTT+FTTTR = \frac{TF}{TT + FT}TTR=TT+F