亞馬遜開源Neo-AI框架,可優化AI模型提升部署速度

在去年於拉斯維加斯舉行的re: create 2018大會上,亞馬遜揭開了SageMaker Neo的面紗。這一框架能夠方便開發人員訓練機器學習模型,並將其部署到任何他們需要的地方,無論是在雲端還是在公司內部。它的效果正如廣告所宣傳的那樣,但它的好處必然僅限於AWS的客戶享有——Neo完全是一個封閉的、專有的服務。

但是就在本週,情況有所改變。

亞馬遜(Amazon)昨日宣佈:將根據Apache軟件許可,發佈Neo的底層代碼,並在GitHub上的一個存儲庫中免費提供。該公司表示,這一舉措將有助於在“廣泛的”硬件平臺上引入“新的和獨立的創新”,第三方處理器供應商、設備製造商、深度學習實踐者都將因此獲益。

開源地址:https://github.com/neo-ai

“通常,爲多個硬件平臺優化機器學習模型是困難的,因爲開發人員需要爲每個平臺的硬件和軟件配置手動調整模型。”AWS深度學習高級產品經理Sukwon Kim和工程主管Vin Sharma在一篇博客文章中寫道:“這對邊緣設備來說尤其具有挑戰性,因爲它們往往在計算能力和存儲方面受到限制……新人工智能減少了在多個平臺上部署機器學習模型所需的時間和精力。”

Neo-AI 可兼容一系列機器學習框架,包括TensorFlow、MXNet、PyTorch、ONNX和XGBoost,以及來自英特爾(Intel)、英偉達(Nvidia)和Arm的輔助平臺(不久將支持 Xilinx、Cadence和Qualcomm等項目)。模型得以優化後不僅能以“兩倍於原模型的速度”運行,並且在準確性上“沒有損失”,它還可以將模型轉換爲一種通用格式,從而省去了需要確保給定目標設備上的軟件與模型精確匹配的麻煩。

那麼它是如何做到這一切的呢?通過使用定製的機器學習編譯器和運行時,Amazon聲稱這是基於對傳統編譯器技術的“數十年”研究——包括華盛頓大學的TVM和Treelite。該公司表示,本着合作精神,新的項目將主要由Arm、英特爾(Intel)、高通(Qualcomm)、Xilinx、Cadence等公司的貢獻推動。

亞馬遜表示,處理器供應商可以將定製代碼集成到編譯器中,以提高模型性能,而設備製造商則可以針對特定的軟件和硬件配置定製Neo-AI的運行。據瞭解,這一框架已經部署在ADLINK、聯想(Lenovo)、Leopard Imaging、松下(Panasonic)等公司的設備上。

原文鏈接

https://venturebeat.com/2019/01/24/amazon-releases-neo-ai-in-open-source-a-framework-for-adapting-machine-learning-models-to-multiple-hardware-platforms/

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章