TensorRT安裝及使用

TensorRT安裝教程推薦這篇文章,github訪問不了,就看下邊csdn上的那篇:

https://arleyzhang.github.io/articles/7f4b25ce/

https://blog.csdn.net/zong596568821xp/article/details/86077553

TensorRT安裝的B站視頻教程https://www.bilibili.com/video/av86802077?p=2

如果出錯了看是不是這個問題:https://blog.csdn.net/qq_33047753/article/details/101604686

還解決不了,可以在評論區留言,我看到就會回覆

TensorRT官方安裝、升級、卸載指南:https://docs.nvidia.com/deeplearning/sdk/tensorrt-install-guide/index.html


 

下邊的內容我是學習B站上一位UP主的教程,自己順便記錄一下學習的內容。

一、如何用TensorRT加速Tensorflow模型加速:

1、導入tensorrt

import tensorrt as trt

2、創建凍結的TensorFlow模型

3、使用UFF轉換器將凍結的tensorflow模型轉換爲UFF文件

$convert-to-uff frozen_inference_graph.pb

4、定義路徑,更改以下路徑以反映Samples中包含的模型位置

>>>model_file = './data/mnist/mnsit.uff'

5、創建builder,network和parser:

with builder = trt.Builder(TRT_LOGGER) as builder,builder.create_network() as network,trt.UffParser() as parser:
    parser.register_input('Placeholder',(1,28,28))
    parser.register_output('fc2/Relu')
    parser.parse(model_file,network)

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章