內容來源:ATYUN AI平臺
來自NVIDIA的研究人員開發了一個基於深度學習的系統,該系統可以用每秒30幀的視頻製作高質量的慢動作視頻,超過了旨在實現相同效果的各種方法。研究人員將在本週CVPR會議上介紹這個項目。
研究人員在研究報告中寫道。“你的生活中有許多令人難忘的時刻,你可能需要用慢鏡頭拍攝,因爲它們很難以常速看清楚,比如嬰兒第一次走路,一個很難的滑板技巧,一隻狗抓球。雖然用手機拍攝每秒240幀的視頻是可能的,但是以高幀率記錄所有內容是不切實際的,因爲它需要大容量存儲器,而且對於移動設備來說功耗很大。”
通過這項新研究,用戶可以在拍攝後減慢錄製速度。
使用NVIDIA Tesla V100 GPU和cuDNN加速的 PyTorch深度學習框架,該團隊用每秒240幀的超過11,000個日常和體育活動視頻訓練了他們的系統。一旦訓練完畢,卷積神經網絡就預測出額外的幀。
該團隊使用單獨的數據集來驗證系統的準確性。結果可能會使以較低幀率拍攝的視頻看起來更流暢和清晰。
精彩視頻點擊鏈接:NVIDIA研究人員利用AI將標準視頻轉換爲高質量慢動作鏡頭
研究人員表示:“我們的方法可以生成多個空間和時間連貫的中間幀。多幀方法始終優於最先進的單幀方法。”
爲了幫助展示研究成果,該團隊從慢動作世界中獲取了一系列剪輯。
該方法可以拍攝生活中最珍貴時刻的日常視頻,並將它們放慢速度,看起來像是電影中的慢動作場景,增添了懸念,爲觀看的人帶來更多期待。
本文轉自ATYUN人工智能媒體平臺,原文鏈接:NVIDIA研究人員利用AI將標準視頻轉換爲高質量慢動作鏡頭
更多推薦
谷歌發佈分類模型EfficientNet-EdgeTPU,運行速度比ResNet-50快10倍
標籤:
歡迎關注ATYUN官方公衆號
商務合作及內容投稿請聯繫郵箱:[email protected]