1.参考:

yolov5和rknn模型的问题_走错路的程序员的博客-CSDN博客_rknn

YOLOv5s部署在瑞芯微电子RK3399Pro中使用NPU进行加速推理_Deepsdu的博客-CSDN博客_npu加速

2.具体

步骤1:先部署好环境(服务器ubuntu18.04,带GPU环境;瑞芯微3399pro,买来自带debian10操作系统;两种设备均需部署):

按照官方

GitHub - rockchip-linux/rknn-toolkit

下载好code(两台设备都下载下),然后doc文件夹下面手册

按照手册部署好环境。

步骤2:在服务器上面:下载GitHub - littledeep/YOLOv5-RK3399Pro: PyTorch-->ONNX-->RKNN 代码,然后按照yolo5训练方式,先准备好自定义数据集(我这边是百度paddlePaddle官网可以下载的路标数据集,共4类),然后运行train.py训练好MyYolo5s.pt模型

步骤3:在服务器上面:export成.onnx模型:

参考yolov5和rknn模型的问题_走错路的程序员的博客-CSDN博客_rknn,小修改export.py,然后电脑要能上网,然后运行生成.onnx模型

步骤4:在服务器上面:.onnx模型转.rknn模型:

参考https://blog.csdn.net/phker/article/details/121084160,运行onnx2rknn.py

步骤5:在瑞芯微上面:利用.rknn模型来识别:

参考yolov5和rknn模型的问题_走错路的程序员的博客-CSDN博客_rknn

识别代码路径rknn_detect\rknn_detect_for_yolov5_original.py

步骤6:模型预编译,解决模型的加载时间过长的问题,可以稍微提高推理速度:

参考:YOLOv5s部署在瑞芯微电子RK3399Pro中使用NPU进行加速推理_Deepsdu的博客-CSDN博客_npu加速7.模型预编译)

成功推理结果如下图所示:

 

 

 

Logo

更多推荐