
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
从上一节我们知道了具体的配置思路,这一节介绍安装的具体步骤,主要有安装conda、python、torch、torchvision等。下面按照步骤来操作。注意安装python后才可以安装torch,再编译torchvision,其他的缺什么补什么。【jetson nano】jetson nano环境配置+yolov5部署+tensorRT加速模型至此,就算环境配置差不多了,大问题已经解决了,后面只

上次把yolov5和deepsort的跟踪算法搞定了,并加入了轨迹线显示,优化了轨迹线显示一段和目标消失时轨迹线不显示。但是他的检测版本有点老,我们实际训练和检测版本较高,所以这一节介绍如何更改为高版本6.1。

这次就我之前的经验和这次的经历总结一个配置jetson板子的介绍,并进行yolov5的检测运行,并使用tensorrt加速推理。

前面已经配置成功了torch以及cuda环境,接下来就配置yolo检测的环境,并用官方的detect检测pt模型,以及使用export导出tensorrt加速的engine模型,并进行检测。除了使用官方的python调用tensorrt检测以外,也用c++调用tensorrt加速。python调用启动速度很慢,容易崩,检测速度跟c++差不多,但是c++启动很快,占用内存也少。

往往在训练一个模型之前,我们需要准备好数据集,简单省事一般是下载公开数据集,但有的公开数据集只画好了标签,还没有划分,所以需要我们划分一下。划分之前需要准备图片路径和标签路径,再新建一个输出路径,运行程序后输出路径下会保存图片和标签路径,并分别分为训练验证测试集。划分比例可调,总比例是1。

这次就我之前的经验和这次的经历总结一个配置jetson板子的介绍,并进行yolov5的检测运行,并使用tensorrt加速推理。

目前想把模型加速部署好的jetson nano,放在自制无人机上,飞至高空用于检测,而且地面可以监控检测效果。

我们一般使用yolo检测之后会得到目标的目标框坐标,检测是比较方便的,但用于工程的话,检测肯定是不够的,需要结合对象进行运动,这就需要传输信息了。今天记录使用socket将YOLOv5检测到的坐标信息传输出去。我需要做一个云台的视觉控制程序,目前的方案是yolov5检测输出坐标信息,使用socket发送到客户端后,再打包成字节发送出去,发送时使用struct包发送给串口即可,也可在发送前处理数据。

上次把yolov5和deepsort的跟踪算法搞定了,并加入了轨迹线显示,优化了轨迹线显示一段和目标消失时轨迹线不显示。但是他的检测版本有点老,我们实际训练和检测版本较高,所以这一节介绍如何更改为高版本6.1。

从上一节我们知道了具体的配置思路,这一节介绍安装的具体步骤,主要有安装conda、python、torch、torchvision等。下面按照步骤来操作。注意安装python后才可以安装torch,再编译torchvision,其他的缺什么补什么。【jetson nano】jetson nano环境配置+yolov5部署+tensorRT加速模型至此,就算环境配置差不多了,大问题已经解决了,后面只
