先開個篇,後續更新進去
計劃如下:
1、抽取官網PaddleOCR的C++源碼(C:\Paddle\PaddleOCR-dygraph\deploy\cpp_infer),用Qt框架做個demo。而且看看能不能啓用gpu和tensorrt。
2、將模型轉onnx格式,統一用OnnxRuntime去預測。也就是做一個OnnxRuntime的框架,以後無論是識別ocr的,還是定位的(如YOLO、PaddleDetection等)都轉onnx。
paddle轉onnx官網教程 PaddleOCR/readme.md at release/2.6 · PaddlePaddle/PaddleOCR (github.com)
3、模型都用onnx格式。推理的框架有OnnxRuntime和TensorRT。由於OnnxRuntime支持CPU、GPU、tensorrt。TensorRT只能用於GPU。所以OnnxRuntime更具有普適性。因此先研究OnnxRuntime+Qt做個Demo。
② onnx模型部署:TensorRT、OpenVino、ONNXRuntime、OpenCV dnn - 夕西行 - 博客園 (cnblogs.com)
【官網教程】
https://github.com/PaddlePaddle/PaddleOCR