logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【工具脚本】目标检测数据样本的扩增脚本

参考自:https://blog.csdn.net/Mr_health/article/details/82667538原文中,writeXml(anno_new_dir, new_img_name, W, H, D, gt_new)的代码缩进有问题,无法保存新的xml。针对HBB格式的标注样本进行扩增。HBB格式下目标被标注为xmin,ymin,xmax,ymax。下面脚本中支持...

#python
【深度学习】backbone网络结构ResNet、Inception、DenseNet简单概述

目录前言各自的亮点:一、ResNet1. Resnet要解决的是什么问题2. Residual Block的设计3. ResNet 网络结构二、Inception1. Inception系列想要解决的问题2. Inception V1-2014年3. Inception V2、Inception-V3 -2015年4. 总结三、DenseNet3.0 DenseNet优点:3.1 DenseNet

【深度学习】Group Convolution分组卷积、Depthwise Convolution和Global Depthwise Convolution

目录1. 分组卷积(Group Convolution)1.1 分组卷积与普通卷积的区别1.2 分组卷积的用途2. 深度分离卷积(Depthwise Convolution)原文链接:https://www.cnblogs.com/shine-lee/p/10243114.html本文主要介绍减少参数量、计算量的卷积形式:Group Convolution(分组卷积)Depthwise Convo

#深度学习#pytorch#神经网络
【深度学习】目前几种热门的数据增强方法

目录1)Mosaic增强2)Mixup增强3)Cutout增强3)CutMix增强前言传统的镜像、旋转、缩放、调整亮度、对比度、高斯噪声这里不详细讲解。主要讲一下现在几种火爆的数据增强方式。1)Mosaic增强将4张图片缩放,然后拼接到一起。Mosaic增强的主要优点:丰富数据集:随机使用4张图片,随机缩放,再随机分布进行拼接,大大丰富了检测数据集,特别是随机缩放增加了很多小目标,让网络的鲁棒性更

#图像处理
【深度学习】深度学习基础-Warm_up训练策略

背景学习率是最影响性能的超参数之一,如果我们只能调整一个超参数,那么最好的选择就是它。 其实在我们的大多数情况下,遇到 loss 变成 NaN 的情况大多数是由于学习率选择不当引起的。warmup介绍warmup可以称为训练热身。由于神经网络在刚开始训练的时候是非常不稳定的,因此刚开始的学习率应当设置得很低很低,这样可以保证网络能够具有良好的收敛性。但是较低的学习率会使得训练过程变得非常缓慢,因此

#深度学习#pytorch#神经网络
【目标检测】yolo系列-yolo v3(2018年)

三、YOLOv31、网络结构图备注:图参考自 另一位作者文章resnetblock块(绿色):由若干个残差单元串联;res_unit残差单元(红色):由两个卷积单元和一个shortcut链接组成;DBL卷积单元(橙色):一个卷积核后面加BN和leaky-relu组成;yolo v3结构:输入尺寸:416*416*3,主干网络:使用Darknet-53,检测头:由3个检测分支的FPN结构组成,分别为

【工具脚本】目标检测中VOC格式数据转COCO格式数据。亲测!无bug!不报错!

前言:我们在做目标检测时,有时需要将自己的VOC格式的训练数据转换为COCO格式,这里提供对应的脚本,亲测,不会报错!使用说明:1)voc_clses:设置自己数据集的类别名称。2)voc2007xmls:指定VOC格式数据中xml文件的路径。3)test_txt:txt文件中指定xml文件的名称。(txt中的内容只有xml文件的名称,不需要带路径和后缀!)4)json_nam...

【目标检测】YOLO系列-yolo v1(2015年)

IoU(Intersection-over-Union)指标IoU 简称交并比,顾名思义数学中交集与并集的比例。假设有两个集合 A 与 B, IoU 即等于 A 与 B 的交集除以 A 与 B 的并集,表达式如下:在目标检测中,IoU 为预测框 (Prediction) 和真实框 (Ground truth) 的交并比。如下图所示,在关于小猫的目标检测中,紫线边框为预测框 (Predi...

【CNN】卷积神经网络中param和FLOPs介绍

卷积神经网络中param和FLOPs介绍CNN论文中在比较网络性能时经常会提到这两个参数,下面简单介绍这两个参数的含义。Parameters:是指这个网络中参数的数量(训练网络时学习的参数)。这里的参数一般指的时参数W和b,也就是权重和附加值。FLOPs:全称是floating point operations,即表示浮点运算次数(在CNN中也可简单成为网络的计算量),小s后缀是复数...

【深度学习-基础知识】batchNormal原理及caffe中是如何使用的

Batchnorm解决的问题:机器学习领域有个很重要的假设:IID独立同分布假设,就是假设训练数据和测试数据是满足相同分布的,这是通过训练数据获得的模型能够在测试集获得好的效果的一个基本保障。那BatchNorm的作用是什么呢?BatchNorm就是在深度神经网络训练过程中使得每一层神经网络的输入保持相同的分布。如果ML系统实例集合<X,Y>中的输入值X的分布老是变,这不符合IID假设

#caffe#深度学习#神经网络
    共 65 条
  • 1
  • 2
  • 3
  • 7
  • 请选择