> 文章列表 > pytorch 38 对tensorRT、openvino、onnxruntime(fp32、fp16)推理速度进行对比

pytorch 38 对tensorRT、openvino、onnxruntime(fp32、fp16)推理速度进行对比

pytorch 38 对tensorRT、openvino、onnxruntime(fp32、fp16)推理速度进行对比

tensorRT与openvino部署模型有必要么?本博文对tensorRT、openvino、onnxruntime推理速度进行对比,分别在vgg16、resnet50、efficientnet_b1和cspdarknet53四个模型进行进行实验,对于openvino和onnxruntime还进行了cpu下的推理对比。对比囊括了fp32、fp16两种情况。在float32下通过实验得出:openvino GPU < onnxruntime CPU << openvino CPU < onnxruntime GPU <= tensorRT GPU。
得出结论:
1、在cpu上因该使用openvino部署,加速效果明显。
2、在gpu上可以适当考虑tensorRT部署,有一定加速效果(对于计算密集的模型加速效果明显);

在fp16下测试,情况与fp32差异较大。速度排序为: onnxruntime CPU < openvino CPU <= openvino GPU < onnxruntime GPU < tensorR GPU。
可以看出在fp16下,onnxruntime完全没有加速效果;openvino有轻微加速效果,比onnxruntime CPU要强;而tensorRT加速效果明显,相比于float32速度提升了1/3~2/5。

1、初始化模型

基于timm库导出vgg16、resnet50、efficientnet_b1、cspdarknet53四个模型为onnx
timm库的更多使用可以参考 https://blog.csdn.net/a486259/article/details/123525448
注:本来计划测试convit_base,结果vit相关模型都无法成