深度學習模型移植的移動端框架

深度學習模型移植的移動端框架

轉載: https://blog.csdn.net/weixin_41770169/article/details/85625443

截止2018年,主流移動端框架總結:

騰訊:ncnn與featurecnn對比,前者開源早,代碼、文檔完善;後者測試速度略微快一點

小米MACE:剛開源,可能會碰到很多問題

百度MDL:速度比ncnn慢

 

安卓 cpu類型:ARM,x86

ios cpu類型:ARM

 

1、 tensorflowLite

文檔:https://tensorflow.google.cn/lite/ 

 

2、ncnn(騰訊)

如下是ncnn開源項目負責人nihui的採訪:https://juejin.im/entry/599a5e136fb9a024a40430bb

a)       無任何第三方庫

b)      純c++實現,跨平臺

c)       彙編級優化,計算速度極快 使用ARM NEON 指令實現卷積層,全連接層,池化層等大部分cnn關鍵層

d)      支持多核並行運算

e)       可擴展的模型設計,支持 8bit 量化和半精度浮點存儲

f)        支持直接內存引用加載網絡模型

g)      可註冊自定義層實現並擴展

項目地址:https://github.com/Tencent/ncnn

 

3、MACE(Mobile AI Compute Engine ) 小米的開源框架

說明文檔:https://mace.readthedocs.io/en/latest/

項目地址:https://github.com/xiaomi/mace

mdl、ncnn和tflite的對比:

相同點:

a. 只含推理(inference)功能,使用的模型文件需要通過離線的方式訓練得到。

b. 最終生成的庫尺寸較小,均小於500kB。

c. 爲了提升執行速度,都使用了ARM NEON指令進行加速。

d. 跨平臺,iOS和Android系統都支持。

不同點:

a. MDL和NCNN均是隻支持Caffe框架生成的模型文件,而TfLite則只支持自家大哥TensorFlow框架生成的模型文件。

b. MDL支持利用iOS系統的Matal框架進行GPU加速,能夠顯著提升在iPhone上的運行速度,達到準實時的效果。而NCNN和TFLite還沒有這個功能

 

4、paddle-mobile (百度)(老版稱MDL)

項目地址:https://github.com/PaddlePaddle/paddle-mobile

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章