![](../../asset/images/user/bgImg_default.jpeg)
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
最近接触网页大屏,所以就想把YOLOV5部署到WEB端,通过了解,知道了两个方法:1、基于Flask部署YOLOv5目标检测模型。2、基于Streamlit部署YOLOv5目标检测。代码在github上,个人感觉两个比较好的,所以基于两份代码测试。Streamlit 是一个用于数据科学和机器学习的开源 Python 框架。它提供了一种简单的方式来构建交互式应用程序,使数据科学家和机器学习工程师可以
![文章图片](https://img-blog.csdnimg.cn/img_convert/a207abb8f4884e9e932676849d81856b.png)
目标检测和目标跟踪的区别:目标检测任务要求同时完成对象的定位(即确定对象的边界框位置)和分类(即确定对象的类别)。这意味着目标检测算法必须不仅能够确定对象是否存在,还要知道它是什么。目标检测通常用于识别和定位图像或视频帧中的对象,通常需要明确的目标类别信息。目标跟踪任务更关注对象在帧与帧之间的连续性,通常更注重对象的运动特征,而不要求进行目标的分类。目标跟踪可以不涉及目标的类别,它的主要目标是维护
![文章图片](https://img-blog.csdnimg.cn/img_convert/a207abb8f4884e9e932676849d81856b.png)
若该文为原创文章,转载请注明原文出处。记录学习YOLOV8过程,自训练关键点检测模型。清华源:-i。
![文章图片](https://img-blog.csdnimg.cn/img_convert/a207abb8f4884e9e932676849d81856b.png)
YOLOP是华中科技大学研究团队在2021年开源的研究成果,其将目标检测/可行驶区域分割和车道线检测三大视觉任务同时放在一起处理,并且在Jetson TX2开发板子上能够达到23FPS。论文标题:YOLOP: You Only Look Once for Panoptic Driving Perception论文地址: https://arxiv.org/abs/2108.11250官方代码: h
![文章图片](https://img-blog.csdnimg.cn/img_convert/cf52fbe57e404f30babcdda6f1ef2c08.png)
RK3568开发板使用的是正点原子新出的ATK-DLRK3568 开发板,主要是学习从训练到部署的全过程,并记录,为自己的学习作个总结。关于ATK-DLRK3568 开发板,正点原子正在出教程,资料也开源,手册目前相对少一点,但不影响学习,因为主要是AI部分,所以基本要自己摸索。本篇从开发环境搭建开始记录,大部分在03【正点原子】ATK-DLRK3568_AI例程测试手册V1.0.pdf里有,具体
![文章图片](https://img-blog.csdnimg.cn/9a8b6de8494a4fa193b9d38038c644fa.png)
若该文为原创文章,转载请注明原文出处。记录yolov5从环境搭建到测试全过程。
![文章图片](https://img-blog.csdnimg.cn/img_convert/a207abb8f4884e9e932676849d81856b.png)
通过detect.py代码测试通过后,阅读detect.py代码发现,有些难以看懂,看得有点蒙蒙的,执行时,如果提示一些module没有安装,直接使用pip install安装。xminymin xmaxymax:对应了坐标。运行后,会把结果保存成results.jpg图片。如有侵权,或需要完整代码,请及时联系博主。若该文为原创文章,转载请注明原文出处。所以编写了一个简单的测试程序。
![文章图片](https://img-blog.csdnimg.cn/img_convert/a207abb8f4884e9e932676849d81856b.png)