作者:英特尔创新大使刘力

上文介绍了《一键搞定!PP-OCRv5模型转ONNX格式全攻略》,本文将使用OpenVINO™工具套件在Intel® CPU、独立显卡、集成显卡上优化并部署飞桨PP-OCRv5模型。

一,OpenVINO™工具套件简介

OpenVINO™工具套件是一个用于优化和部署人工智能(AI)模型,提升AI推理性能的开源工具集合,不仅支持以卷积神经网络(CNN)为核心组件的预测式AI模型(Predictive AI),还支持以Transformer为核心组件的生成式AI模型(Generative AI)。OpenVINO™工具套件支持直接读取并优化PaddlePaddle训练好的模型(*.pdmodel)或者ONNX格式模型(*.onnx),提升其在英特尔® CPU、独立显卡、集成显卡、NPU等硬件上的AI推理计算性能。

二,安装英特尔显卡驱动

参考链接:https://dgpu-docs.intel.com/driver/client/overview.html,在Ubuntu下完成英特尔显卡驱动安装。

三,搭建开发环境

首先,请克隆PP-OCRv5_OpenVINO到本地:
 

git clone https://github.com/openvino-book/PP-OCRv5_OpenVINO.git

cd PP-OCRv5_OpenVINO

接着,创建并激活虚拟环境ppocrv5_ov,并安装所有依赖项。

conda create -n ppocrv5_ov python=3.11

conda activate ppocrv5_ov

pip install -r requirements.txt

四,下载并导出PP-OCRv5 ONNX格式模型

请按《一键搞定!PP-OCRv5模型转ONNX格式全攻略》所示,下载并导出PP-OCRv5 ONNX格式模型到PP-OCRv5_OpenVINO文件夹。

五,编写PP-OCRv5推理程序

PP-OCRv5_OpenVINO项目已将推理程序编写完成,各文件功能如下:

执行演示程序main.py,并指定模型路径和推理硬件设备:

python main.py --image_dir images/handwrite_en_demo.png \
--det_model_dir PP-OCRv5_server_det_onnx/inference.onnx \
--det_model_device CPU \
--rec_model_dir PP-OCRv5_server_rec_onnx/inference.onnx \
​​​​​​​--rec_model_device CPU

运行结果,如下图所示:

六,总结

开发者可以通过OpenVINO™工具套件将PP-OCRv5模型部署到Intel的CPU、独立显卡或集成显卡上。

如果你有更好的文章,欢迎投稿!

稿件接收邮箱:nami.liu@pasuntech.com

更多精彩内容请关注“算力魔方®”!

Logo

更多推荐