架構師特刊:深度學習模型壓縮技術的落地實踐與創新

隨着智能設備的普及,深度神經網絡在智能手機、可穿戴設備等嵌入式設備上的應用越來越常見,這些嵌入式設備對模型體積、計算性能、功耗等方面都有比較嚴格的要求。但與此同時,深度學習網絡規模卻在不斷增大,計算複雜度隨之增高,嚴重限制了其在手機等智能設備上的應用。深度學習模型壓縮與加速技術就是爲了解決這一問題而生,其研究目的是:在保證現有模型的性能和精度基本不變的前提下,採用一些方法有效地大幅減少計算量、縮小模型的體積。除了可以在移動端AI應用場景派上用場,模型壓縮技術也可以幫助一些實時應用減少神經網絡的存儲和計算成本,如在線學習、增量學習以及自動駕駛。

InfoQ希望通過策劃這本迷你書對深度學習模型壓縮技術的研究和應用現狀、技術創新點、落地難點、侷限性和未來發展方向等內容進行呈現,並推動該領域的發展。

目錄

谷歌提出任務無關的輕量級預訓練模型 MobileBERT:比 BERT 小 4 倍、速度快 5 倍
騰訊提出基於協同通道剪枝的深度神經網絡壓縮新方法,降低模型精度損失
模型壓縮四大方向,計算機視覺領域的低功耗深度學習前沿技術綜述
兼顧實時性、準確度和隱私:騰訊聯合港中文提出新型神經網絡壓縮方法
比 BERT 小 8 倍、推理快 10 倍,華爲自研 TinyBERT 背後的模型壓縮技術實踐

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章