專訪Keras之父:關於深度學習、Keras的誕生和給初學者的建議


新智元報道

作者:Sanyam Bhutani

編輯:肖琴

【新智元導讀】本文是對Keras的創造者、谷歌AI研究員Francois Chollet的專訪,內容包括François從何開始對深度學習感興趣、Keras的創建背後的動機,François對TensorFlow等其他框架的看法、給初學者的建議等。

本文作者Sanyam Bhutani專訪了一系列他心目中的“AI英雄”,包括GAN的創造者Ian Goodfellow、最年輕的Kaggle Grandmasters等等。

這次,他的採訪對象是機器學習社區最偉大的貢獻者之一、Keras的創造者,也是最好的深度學習書籍的作者之一:Francois Chollet。

Francois Chollet目前是Google AI的研究員,也是Keras開發的核心人物。

Francois Chollet

Sanyam Bhutani:你好,François,非常感謝你抽出時間參加這次採訪。能和你談話真是我的榮幸。

Francois Chollet:謝謝你邀請我,我很樂意回答你的問題。

問:你現在在 Google AI Research工作,並且你創建了最受歡迎的深度學習庫之一。你能告訴我們你是怎麼開始的嗎?是什麼讓你對深度學習開始感興趣?

Francois Chollet:我研究人工智能已經有很長一段時間了,但在我還是學生時,我對學習視覺感知的層疊、模塊化、層次化表示的這些具體問題很感興趣。當時,Jeff Hawkins寫了一本相當發人深省的書(書名是:On Intelligence),內容包括大腦中的分層信息處理,MIT的一些人一直在研究受人類視覺皮層啓發的視覺感知層級模型,就是HMAX模型家族

這些觀點給我的印象非常深刻,並且我認爲是正確的,所以我開始研究自己的算法。那時我沒有使用神經網絡,我開始使用基於矩陣分解的堆疊特徵學習器。我想要學習的不僅僅是視覺特徵的層次結構,而是視覺-時間特徵的層次結構,我想找到視覺特徵與時間的相關性,而不僅僅是與空間的相關性。2012年年中,當我在東京大學做研究時,我獲得了一些初步的成功——我將我的設置應用到無監督的few-shot手勢識別中,並取得了一些非常好的結果。幾個月後,Hinton的實驗室贏得了ImageNet競賽冠軍(我在東京大學的實驗室也參加了這個競賽),他們在GPU上訓練深度卷積神經網絡(deep convnet),因此我對這種方法很感興趣。

這是人們現在已經忽略的東西,但是用反向傳播訓練的端到端可微模型只是學習感知的模塊化層次表示問題的一種解決方案,還有其他途徑尚未得到探索。這個問題本身只是AI領域的衆多問題之一。

問:你能分享一下創建Keras的最初動機嗎?你有沒有想到它會變得如此受歡迎?

François Chollet:沒有,我絕對沒想到它會變得如此之大。我最初是希望它能在當時使用深度學習的一小羣人中引起一些轟動,那是在2015年3月(做深度學習的可能有幾千人),但當時沒有人知道深度學習能在接下來的幾年裏變得如此熱門。

我開始創建Keras是爲了我自己。我當時在業餘進行自然語言處理的研究,希望找到一個好的工具來使用RNNs。LSTM算法在當時基本上還不爲人所知,但隨着神經網絡在機器學習領域日益突出,一些人開始研究LSTM在自然語言處理中的應用。據我所知,當時LSTM還沒有可重用的開源實現,所以我用Theano做了一個。後來我做了更多的層。它就變成了一個框架。我把它命名爲Keras,並且開源了它,一切是從那裏發展起來的。

使它與衆不同的原因是:與其他框架相比,它非常易於得到,也易於使用;它支持RNNs和convnets(我想它是第一個支持convnets的框架),並且它允許你通過Python代碼而不是通過配置文件來定義模型(在這之前,通過配置文件來定義模型是最流行的方法,特別是對於Caffe和PyLearn2)。

問:你對Keras成爲TensorFlow 2.0的默認API有何看法?你爲什麼覺得這是有必要的?

Francois Chollet:TensorFlow是一個非常強大的框架,但是它長期以來一直受到可用性問題的困擾,特別是它是一個龐大的、有時令人困惑的API。TensorFlow 2在很大程度上解決了這些問題。TensorFlow 2改進的核心是兩件事:eager executionKeras API。 Eager execution爲TensorFlow帶來了一種命令式的編碼風格,使其更直觀、更易於調試。Keras API將使用模式整合到一個連貫的、真正高效且令人愉快的workflows中,適合於從研究到應用程序開發到部署的各種用戶配置文件。我對即將發佈的內容感到非常興奮。你應該很快就會看到了!

問:除了TF和Keras之外,你認爲還有哪些框架看起來很有前景?

Francois Chollet:我認爲MXNet和它的高級API Gluon很有前景,它們都受到Keras和Chainer的啓發。MXNet利用了許多與TensorFlow 2一致的想法—— eager execution和symbolic execution的混合。與TensorFlow一樣,它是爲數不多的具有實際生產級和可擴展性的框架。MXNet背後有很多工程力量——亞馬遜有一個龐大的團隊在做這件事。這是一個嚴肅的項目,有一些非常好的想法和可靠的執行力。

問:對於那些懷着有朝一日在谷歌工作的夢想而對深度學習感興趣的讀者和初學者,你有什麼建議?

François Chollet:我認爲你不應該把你的夢想和外在的身份標誌聯繫在一起,比如爲一家知名公司工作,或者賺一筆錢,或者獲得某個特別的title。要弄清楚你生命的價值是什麼,然後堅持你的價值觀。永遠不必爲某一個決定後悔。

問:你能告訴我們你生命裏的一天是什麼樣的嗎?

Francois Chollet:不是很吸引人,主要是review代碼,與人交談,寫設計文檔,等等。我仍然編寫大量的代碼。

問:人們普遍認爲,要在深度學習中取得重大成果,需要有大量資源。你認爲一個人如果沒有谷歌研究員可能擁有的資源,能夠對這個領域做出重大貢獻嗎?

Francois Chollet:當然,有一些類型的問題需要行業規模的訓練資源。但是,有很多問題只需要有一個GPU,就能取得重大進展。目前阻礙AI研究的主要原因不是缺乏硬件,而是缺乏多樣化的思維。如果你的資源有限,那麼不要把時間花在擔心GPU上,而是擔心你是否在處理正確的問題,是否在提出正確的問題。

問:你一直是“AI倫理”的倡導者。你能分享一些在構建“AI產品”時必須注意的方面嗎?

Francois Chollet:其他人對機器學習的倫理問題的討論比我好得多。比如Kate Crawford,還有Meredith Whittaker。我想對此感興趣的人都應該看看他們的作品。

問:你覺得機器學習被過度炒作了嗎?

François Chollet:在某種程度上,的確是。我認爲機器學習在某種程度上既被高估了,也被低估了。一方面,人們往往過度高估了當前機器學習系統的智能和泛化能力,將機器學習視爲一根魔杖,遇到任意問題只要揮揮魔杖,問題就能消失。當然,這在很大程度上是錯誤的,我們的算法中很少有真正的智能,它們的應用範圍非常狹窄。

但與此同時,大多數人仍然低估了今天的相對粗糙的系統所能取得的成就,如果我們系統地將它們應用於它們可能解決的每一個問題的話。在某種程度上,機器學習是我們這個時代的蒸汽動力:這是一種非常基本的機制,但如果大規模使用,它仍有可能深刻地改變世界。

問:你認爲博士或碩士學位的專業水平是必要的嗎,還是一個人可以在不成爲“專家”的情況下對深度學習領域做出貢獻?

Francois Chollet:當今在深度學習領域很多重要貢獻的人都沒有博士學位。要想對一個領域做出有意義的貢獻,無論是系統開發還是新研究,你必須要有一定水平的專業知識。但很明顯,你不需要通過博士課程就能獲得專業知識,而擁有博士學位並不能保證你在任何領域都能做出有意義的貢獻——理論上應該是這樣,但就我所知,現實與這個理論不太相符。

事實上,除非你的目標是成爲一名學者,否則我認爲獲得博士學位並不是獲得專業知識的最佳途徑。最好的道路是能讓你快速、開放地成長的道路。在團隊合作和專家密切指導下開展各種項目,你能最快地學到知識。在實踐中,典型的博士項目不是那樣的。

問:在我們結束之前,對於那些對如何開啓深度學習感到不知所措的初學者,你有什麼建議嗎?

François Chollet:10年後,你能買到一本教科書,上面會可以很好地總結2010年到2020年期間AI的進展。今天發佈的大量內容可能看起來很重要,但其中大部分都是噪音。要專注於大問題

Sanyam Bhutani:非常感謝你接受這個採訪。

原文:

https://hackernoon.com/interview-with-the-creator-of-keras-ai-researcher-franois-chollet-823cf1099b7c


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章