利用瑞芯微3399Pro推理yoloV5s目标检测模型:踩坑笔记
1.参考:yolov5和rknn模型的问题_走错路的程序员的博客-CSDN博客_rknnYOLOv5s部署在瑞芯微电子RK3399Pro中使用NPU进行加速推理_Deepsdu的博客-CSDN博客_npu加速2.具体步骤1:先部署好环境(服务器ubuntu18.04,带GPU环境;瑞芯微3399pro,买来自带debian10操作系统;两种设备均需部署):按照官方(GitHub - rockchi
1.参考:
yolov5和rknn模型的问题_走错路的程序员的博客-CSDN博客_rknn
YOLOv5s部署在瑞芯微电子RK3399Pro中使用NPU进行加速推理_Deepsdu的博客-CSDN博客_npu加速
2.具体
步骤1:先部署好环境(服务器ubuntu18.04,带GPU环境;瑞芯微3399pro,买来自带debian10操作系统;两种设备均需部署):
按照官方
(GitHub - rockchip-linux/rknn-toolkit)
下载好code(两台设备都下载下),然后doc文件夹下面手册
按照手册部署好环境。
步骤2:在服务器上面:下载GitHub - littledeep/YOLOv5-RK3399Pro: PyTorch-->ONNX-->RKNN 代码,然后按照yolo5训练方式,先准备好自定义数据集(我这边是百度paddlePaddle官网可以下载的路标数据集,共4类),然后运行train.py训练好MyYolo5s.pt模型
步骤3:在服务器上面:export成.onnx模型:
参考yolov5和rknn模型的问题_走错路的程序员的博客-CSDN博客_rknn,小修改export.py,然后电脑要能上网,然后运行生成.onnx模型
步骤4:在服务器上面:.onnx模型转.rknn模型:
参考https://blog.csdn.net/phker/article/details/121084160,运行onnx2rknn.py
步骤5:在瑞芯微上面:利用.rknn模型来识别:
参考yolov5和rknn模型的问题_走错路的程序员的博客-CSDN博客_rknn,
识别代码路径rknn_detect\rknn_detect_for_yolov5_original.py
步骤6:模型预编译,解决模型的加载时间过长的问题,可以稍微提高推理速度:
参考:YOLOv5s部署在瑞芯微电子RK3399Pro中使用NPU进行加速推理_Deepsdu的博客-CSDN博客_npu加速(7.模型预编译)
成功推理结果如下图所示:
更多推荐
所有评论(0)