NVIDIA研究人員利用AI將標準視頻轉換爲高質量慢動作鏡頭

原文鏈接:http://www.atyun.com/22619.html

 

內容來源:ATYUN AI平臺

來自NVIDIA的研究人員開發了一個基於深度學習的系統,該系統可以用每秒30幀的視頻製作高質量的慢動作視頻,超過了旨在實現相同效果的各種方法。研究人員將在本週CVPR會議上介紹這個項目。

研究人員在研究報告中寫道。“你的生活中有許多令人難忘的時刻,你可能需要用慢鏡頭拍攝,因爲它們很難以常速看清楚,比如嬰兒第一次走路,一個很難的滑板技巧,一隻狗抓球。雖然用手機拍攝每秒240幀的視頻是可能的,但是以高幀率記錄所有內容是不切實際的,因爲它需要大容量存儲器,而且對於移動設備來說功耗很大。”

通過這項新研究,用戶可以在拍攝後減慢錄製速度。

使用NVIDIA Tesla V100 GPU和cuDNN加速的 PyTorch深度學習框架,該團隊用每秒240幀的超過11,000個日常和體育活動視頻訓練了他們的系統。一旦訓練完畢,卷積神經網絡就預測出額外的幀。

該團隊使用單獨的數據集來驗證系統的準確性。結果可能會使以較低幀率拍攝的視頻看起來更流暢和清晰。

精彩視頻點擊鏈接:NVIDIA研究人員利用AI將標準視頻轉換爲高質量慢動作鏡頭

研究人員表示:“我們的方法可以生成多個空間和時間連貫的中間幀。多幀方法始終優於最先進的單幀方法。”

爲了幫助展示研究成果,該團隊從慢動作世界中獲取了一系列剪輯。

該方法可以拍攝生活中最珍貴時刻的日常視頻,並將它們放慢速度,看起來像是電影中的慢動作場景,增添了懸念,爲觀看的人帶來更多期待。

本文轉自ATYUN人工智能媒體平臺,原文鏈接:NVIDIA研究人員利用AI將標準視頻轉換爲高質量慢動作鏡頭

更多推薦

豐田與AI創業公司合作,共同設計開發提供日常幫助的機器人

谷歌發佈分類模型EfficientNet-EdgeTPU,運行速度比ResNet-50快10倍

4分鐘PyTorch入門

標籤:

英偉達NVIDIA

歡迎關注ATYUN官方公衆號

商務合作及內容投稿請聯繫郵箱:[email protected]

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章