零基礎實戰Keras模型轉化爲RKNN格式模型成功運行在RK3399Pro板子上

     深度學習實驗大多是在服務器端進行的,在實際的應用中,想要把訓練好的模型投入實際的應用中去的時候往往需要轉化爲適應於邊緣端或者是移動端計算的格式,一是縮減模型大小降低原有的參數體量,二是藉助於硬件環境的加速能力,提升模型的推理速度,總之就是爲了能夠在板子上跑的更快點。

     在實際的開發實踐中,我們選擇使用的是RK3399Pro這個型號的板子,提供了NPU級別的硬件加速計算能力,官方的文檔地址在這裏,首頁截圖如下所示:

    這裏是官方給出來的雲計算和邊緣計算的簡單對比說明:

雲計算與邊緣計算

雲計算

端側僅負責發送輸入數據,並接收計算結果
計算資源集中管理和分配,藉助服務器的強大性能,可以實現很高的浮點算力和精度水平
部署便捷,雲服務器可直接部署訓練的模型框架,無需轉換和二次開發即可使用
算力成本高,常規神經網絡運算使用GPU浮點運算,GPU成本高,功耗大,雲端部署服務器的運維成本也很大

流量成本高、延遲大,輸入和輸出依賴網絡傳遞,視覺識別任務一般輸入的圖片碼流很大,如果是移動設備,沒有固定的有線網絡,移動流量成本是相當的大的
離線無法工作,雲端的人工智能識別高度依賴網絡,如果網絡離線,所有功能都將無法使用

AI 邊緣計算
線下運行、低延遲,不依賴網絡,無需和雲端通訊,可獨立運作

冗餘部署,去中心化,單個設備損壞不影響其他設備正常工作

應用
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章