安裝:
https://www.jianshu.com/p/538b467f1105
https://github.com/faedtodd/Tensorrt-yolov3-win10
yolov3 | 1 | 416x416 | 25ms |
yolov3-tiny | 1 | 608x608 | 7ms |
舊版安裝:
NVIDIA TensorRT是一種高性能神經網絡推理(Inference)引擎,用於在生產環境中部署深度學習應用程序,應用有圖像分類、分割和目標檢測等,可提供最大的推理吞吐量和效率。本文參照英偉達官網教程記錄下在win10、cuda9.0、vs2015環境下的TensorRT 5.0的安裝和使用過程,以供參考交流。
一、環境
Win10
vs2015
cuda9.0
cudnn7.0
python2.7
二、TensorRT 5.0安裝
1、下載
下載鏈接:https://developer.nvidia.com/nvidia-tensorrt-5x-download
2、解壓
3、設置系統環境變量
4、複製dll文件到cuda安裝目錄
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\vX.Y\bin(對應自己的cuda安裝目錄)
二、mnist sample編譯測試
完成tensorRT安裝後,測試看安裝是否成功,可以直接編譯剛纔解壓的TensorRT裏的案例來測試。這裏我們選用sampleMNIST來測試。
1、mnist案例的程序在路徑samples\sampleMNIST下
2、用vs2015(其他版本沒試過)打開解決方案後,需對工程屬性進行配置。
(1)首先修改一下對應的平臺版本和工具集
(2)可執行文件目錄
(3)附加包含目錄
(4)附加依賴項
到這裏工程屬性的配置就完成了,接下來對工程編譯。
3、編譯
輸出的可執行文件在目錄D:\vs2015_workspace\TensorRT-5.0.4.3\bin下。
4、運行測試
在sample的readme中可以看到運行命令如下:
可以看到,到這裏安裝測試已經完成了。對TensorRT進一步的研究後續再進行,接下來將以SSD爲例,進一步對使用TensorRT的各方面進行考察,尤其是INT8模式下的推理速度提升和準確率的影響。