TensorRT安裝教程推薦這篇文章,github訪問不了,就看下邊csdn上的那篇:
https://arleyzhang.github.io/articles/7f4b25ce/
https://blog.csdn.net/zong596568821xp/article/details/86077553
TensorRT安裝的B站視頻教程https://www.bilibili.com/video/av86802077?p=2
如果出錯了看是不是這個問題:https://blog.csdn.net/qq_33047753/article/details/101604686
還解決不了,可以在評論區留言,我看到就會回覆
TensorRT官方安裝、升級、卸載指南:https://docs.nvidia.com/deeplearning/sdk/tensorrt-install-guide/index.html
下邊的內容我是學習B站上一位UP主的教程,自己順便記錄一下學習的內容。
一、如何用TensorRT加速Tensorflow模型加速:
1、導入tensorrt
import tensorrt as trt
2、創建凍結的TensorFlow模型
3、使用UFF轉換器將凍結的tensorflow模型轉換爲UFF文件
$convert-to-uff frozen_inference_graph.pb
4、定義路徑,更改以下路徑以反映Samples中包含的模型位置
>>>model_file = './data/mnist/mnsit.uff'
5、創建builder,network和parser:
with builder = trt.Builder(TRT_LOGGER) as builder,builder.create_network() as network,trt.UffParser() as parser:
parser.register_input('Placeholder',(1,28,28))
parser.register_output('fc2/Relu')
parser.parse(model_file,network)