AAAI 2020!七成作者是學生,深度學習三巨頭齊聚一堂,圈粉無數

第三十四屆AAAI人工智能會議(AAAI 2020)於2020年2月7日至12日在美國紐約州紐約市中心希爾頓酒店舉行,會議形式多樣,包括學生摘要,海報會議,特邀演講,教程,講習班以及展覽和競賽等。AAAI 2020最終收到8800篇提交論文,評審了7737篇,接收了1591篇,接收率20.6%。會議的乾貨資料小助手正在快馬加鞭整理中,記得關注呀!

 

AAAI 2020論文接收情況


經歷了2月7日、8日的23場研討會和教程的預熱,AAAI 2020也迎來了正式會議,接收的1591篇論文(涵蓋160個主題)中有454篇論文以演講方式進行展示,其餘1137篇論文以海報的形式進行展示。

 

毫不意外的是,中國再次制霸全場,投稿數量多達3189篇,佔總投稿數的41%,而第二名的美國投稿數量爲2967篇,佔總投稿數的37%。

 

 

然而從接收率的排名來看,數據似乎不是那麼亮眼,來自中國的論文接受率僅爲18.4%,不到第一名奧地利(40%)的一半。

 


從官方顯示的數據來看:相較於2019年16.4%(評審數7099,接收數1150)的接收率,本屆大會的接收率增長了4.6個百分點,接收文章數目也多了400多篇。

最讓小編感到意外的,莫過於投稿的7737篇論文中,有5453(70.5%)篇第一作者來自於學生羣體,真是青出於藍啊!

 

深度學習三巨頭特邀演講


昨日的重頭戲莫過於爲時兩小時的特別活動:ACM 2018圖靈獎獲獎者的個人演講和小組討論。這可以說是本次組委會送給參會者的超級大福利了!

2019年3月,ACM將Yoshua Bengio (本吉奧),Geoffrey Hinton(辛頓)和Yann LeCun(楊樂昆)三位深度學習之父評爲2018年圖靈獎獲得者。雖然人工神經網絡早已作爲一種幫助計算機識別模式和模擬人類智能的工具在20世紀80年代被引入,但直到21世紀初,只有楊樂昆、辛頓和本吉奧等一小羣人仍然堅持使用這種方法。儘管他們的努力也曾遭到懷疑,但他們的想法最終點燃了人工智能領域對神經網絡的興趣,並最終帶來了影響現在和未來的一些重大技術進步。 這也是圖靈獎1966年建立以來少有的一年頒獎給三位獲獎者的原因,獎金爲100萬美元。

 

ACM 表示 Geoffrey E Hinton 主要有三大貢獻:反向傳播、玻爾茲曼機、對卷積神經網絡的修正。

在 1986 年的一篇著名論文《Learning Internal Representations by Error Propagation》中,Hinton 與 David Rumelhart 和 Ronald Williams 提出了反向傳播,Hinton 等研究者表示反向傳播算法可以幫助神經網絡探索數據內部的深層表徵,也正是該算法的提出,使得此神經網絡能夠解決以前被認爲無法解決的問題。目前反向傳播算法已經成爲訓練深度神經網絡所必需的算法。

1983 年,Hinton 與 Terrence Sejnowski 發明了玻爾茲曼機,這是第一個能夠學習不屬於輸入或輸出的神經元內部表徵的神經網絡。

到了 2012 年,Hinton 與他的學生 Alex Krizhevsky 和 Ilya Sutskever 爲卷積神經網絡的發展做出了重要貢獻。他們利用修正線性神經元(ReLU)和 Dropout 正則化大大提升了深度卷積神經網絡的性能。在著名的 ImageNet 競賽中,Hinton 和他的學生幾乎將圖像識別的錯誤率減半,這一次挑戰賽的結果直接重塑了計算機視覺領域。

ACM 表示 Yoshua Bengio 主要有三大貢獻:序列概率模型、高維詞嵌入與注意力模型、生成對抗網絡的提出。

在上世紀九十年代,Bengio 提出將神經網絡與序列的概率建模相結合,例如隱馬爾可夫模型這種序列的概率建模方法。這些觀點被 AT&T/NCR用於閱讀手寫支票的業務上,該系統被認爲是九十年代神經網絡研究的巔峯之作,目前基於深度學習的語音識別系統都是在這些概念上進行擴展的。

在 2000 年,Bengio 等研究者發表了一篇具有里程碑意義的論文《A Neural Probabilistic Language Model》,該論文引入了高維詞嵌入作爲詞義的表徵方法,這對自然語言處理的進展產生了巨大影響,包括機器翻譯、知識問答、視覺問答等等。他的研究團隊還提出了一種注意力機制,該方法在機器翻譯領域取得了重大突破,成爲了深度學習序列建模的關鍵組成部分。

自 2010 年以來,Bengio 非常關注生成深度學習,並與 Ian Goodfellow 等研究者提出了生成對抗網絡(GAN),其令人驚奇的地方在於,計算機能生成與原始圖像相媲美的圖像,這項研究也引起了計算機視覺和計算機圖形學的革命。

ACM 表示 Yann LeCun 主要有三大貢獻:提出卷積神經網絡、改進反向傳播算法、拓寬神經網絡的視角。

20 世紀 80 年代,LeCun 構建了卷積神經網絡,這是該領域的一項重要理論,對於提高深度學習的效率至關重要。在20 世紀 80 年代後期就職於多倫多大學和貝爾實驗室的日子裏,他利用手寫數字圖像數據集訓練了第一個卷積神經網絡系統。如今,卷積神經網絡已成爲計算機視覺、語音識別、語音合成、圖像合成和自然語言處理領域的行業標準。

LeCun 提出了早期版本的反向傳播算法(backprop),並基於變分原理給出了清晰的推導,包括兩種加速學習時間的簡單方法。

LeCun 的貢獻還包括拓寬神經網絡的研究視角,他將神經網絡發展爲一種計算模型,並應用到一系列任務中,例如:在圖像識別領域,他研究瞭如何在神經網絡中學習分層特徵表徵,這一概念現在經常用於許多識別任務。他還和 Leon Bottou 一起提出了用在每一個現代深度學習軟件中的理念:學習系統可以被構建爲複雜的模塊網絡,在這個網絡中,反向傳播通過自動微分來執行。

再看看現場慕名而來的粉絲羣們!你就能體會到:無敵是多麼~多麼寂寞!

 

去不了現場固然可惜,但遠程參會看直播錄播也不失爲一個好選擇。隔着屏幕也是可以近距離瞻仰大佬的,只要你的思維能跟上節拍。

直播地址:

https://aaai.org/Conferences/AAAI-20/livestreamed-talks/

 

發佈了53 篇原創文章 · 獲贊 4 · 訪問量 1萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章