
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
Openvino量化模型推理 Fp32 Fp16 int8
我忘记我是哪个版本的openvino了,这里记录一下我将模型从onnx转换到Openvino的Ir模型以及最后的int8,Openvino比Tensorrt的泛化性要高,Tensorrt的量化是模型放到不同的机子上面都需要重新量化一次但是Openvino没有这个缺点。我的OpenVino采用的是源码编译的这里采用的是python代码,之后可能会写一份C++代码放上去,先上才艺。
到底了







