FastDeploy的本地编译(Windows)

openvino推理端一直没有编译成功,不考虑编译openvino。

使用官方案例,发现对onnx格式模型支持的不太好(有的能运行,有的报错)。对paddle格式支持的很好(自家宝贝,必须独宠啊!)

因此,只编译paddle和tensorrt推理端。

onnx格式的模型可以使用官方转换工具,转为paddle。GitHub - PaddlePaddle/X2Paddle: Deep learning model converter for PaddlePaddle. (『飞桨』深度学习模型转换工具)

官方提供的工具 FastDeploy/README.md at develop · PaddlePaddle/FastDeploy · GitHub

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章