> 文章列表 > 基于 TensorRT 使用 python 进行推理优化

基于 TensorRT 使用 python 进行推理优化

基于 TensorRT 使用 python 进行推理优化

文章大纲

  • 简介
  • TensorRT 简介
  • 构建测试的conda 环境
    • 注意事项
  • TensorRT 安装
  • 参考文献与学习路径

简介

TensorRT 简介

在这里插入图片描述

TensorRT是NVIDIA推出的一个高性能的深度学习推理框架,可以让深度学习模型在NVIDIA GPU上实现低延迟,高吞吐量的部署。TensorRT支持Caffe,TensorFlow,Mxnet,Pytorch等主流深度学习框架的部署。TensorRT底层为C++库,NVIDIA为其提供了C++ API和Python API,主要在NVIDIA GPU以实现高性能的推理(Inference)加速。
下图简要展示了TensorRT推理加速的机制:

TensorRT主要进行了以下操作,以实现模型运行速度的提升:
基于 TensorRT 使用 python 进行推理优化