
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本篇主要用于说明如何使用自己的训练数据,快速在YOLOV8 框架上进行训练。当前(20230116)官方文档和网上的资源主要都是在开源的数据集上进行测试,对于算法“小白”或者“老鸟”如何快速应用到自己的项目中,这个单纯看官方文档显得有点凌乱,因为YOLOV8 不再致力于做一个单纯算法,而是想要做一个一统(分类、检测、分割且多种模型)的框架。本文以检测为例。

在mac M1 M2上配置Python 深度学习开发环境(pycharm、openCV、pytorch)
一、定义1、以物体检测领域的通用数据集COCO物体定义为例,小目标是指小于32×32个像素点(中物体是指32*32-96*96,大物体是指大于96*96)。2、在实际应用场景中,通常更倾向于使用相对于原图的比例来定义:物体标注框的长宽乘积,除以整个图像的长宽乘积,再开根号,如果结果小于3%,就称之为小目标。二、难点coco上面:1、包含小目标的样本数量较少,这样潜在的让目标检测模型更关注中大目标的
1、主要贡献网上对YOLOV5是否称得上V5都有异议,可见其并没有算法上的重大创新,主要是多种trick的集成,并且开源了一套快速训练、部署的方案。2、主要思路主体流程和V3类似,三分分支预测,如下:3、具体细节1)input主要使用如下trick:Mosaic数据增强、自适应锚框计算、自适应图片缩放。下面分别叙述a.Mosaic数据增强Mosaic数据增强则采用了4张图片,随机缩放、随机裁剪、随
声明:基本参考搬运自https://zhuanlan.zhihu.com/p/33544892,该博客写的详略得当,重点突出。本文仅做格式整理,自己留存备份。其中也有些许自己添加的理解和图片。1、主要贡献SSD在Yolo的基础上主要改进了三点:多尺度特征图,利用卷积进行检测,设置先验框。这使得SSD在准确度上比Yolo更好,而且对于小目标检测效果也相对好一点。2、主要思路如上图第一个图,对比YOL
本文主要介绍了YOLOV9 算法的原理,并结合官方git 源码和其他人员的一些issue,更深层的尝试去探讨论文具体实现时的一些疑问。

主要记录使用NVIDIA GPU + pytorch + 检测系列模型的快速使用方式(包括:训练、测试、导出、量化),可以快速解决一些工业应用的问题,比如:无网、数据大需要改路径、需要记录不同实验结果等问题。

yolov6 特性解读和完整的网络结构可视化。
1、主要贡献网上对YOLOV5是否称得上V5都有异议,可见其并没有算法上的重大创新,主要是多种trick的集成,并且开源了一套快速训练、部署的方案。2、主要思路主体流程和V3类似,三分分支预测,如下:3、具体细节1)input主要使用如下trick:Mosaic数据增强、自适应锚框计算、自适应图片缩放。下面分别叙述a.Mosaic数据增强Mosaic数据增强则采用了4张图片,随机缩放、随机裁剪、随
其实到了YOLOV5 基本创新点就不太多了,主要就是大家互相排列组合复用不同的网络模块、损失函数和样本匹配策略,V11支持多种视觉任务:物体检测、实例分割、图像分类、姿态估计和定向物体检测(OBB)。对比YOLOV8主要涉及到:*backbone 中的使用C2f模块 变为 c3k2 模块。*backbone 中的最后一层(sppf层)后增加了C2PSA模块。*head 解耦头中的分类检测头两个Co
