刷arxiv有哪些技巧?5個問題快速理解機器學習論文

導語:怎麼看arxiv才能不錯過機器學習領域的優秀論文呢?
譯者:AI研習社(聽風1996
雙語原文鏈接:How to Understand ML Papers Quickly


我所指導的ML學員經常會問我一些不同的問題:"你如何從每天大量充斥在Arxiv網址上的出版資料中選擇閱讀哪些論文?"

閱讀大多數ML論文的好處是,你只需提出五個簡單的問題就能跨越(忽略)一些專業術語。當我瀏覽論文時,我會盡可能快地回答這些問題。

1)函數近似器的輸入是什麼?

如:一張224x224x3的RGB圖像,其中單個物體大致位於視圖中心。

2)函數近似器的輸出是什麼?

如:一個對應輸入圖像的類維度爲1000的向量。

請藉助與具體(論文中的)方法無關的方式考慮整個系統的輸入和輸出,可以讓你從算法術語本身中脫身,並考慮其他領域是否已經開發出使用不同方法(算法)在這裏可能會有效的方法。我發現這種方法在閱讀Meta-Learning論文時非常有用。

通過首先將ML問題視爲一組輸入和期望的輸出,可以推斷輸入是否足以預測輸出。如果沒有這種推斷練習,你可能會意外得到一個ML問題,其中輸出不可能由輸入決定。結果可能會是一個ML系統進行預測的方式是社會所認爲有問題的方式(譯者注:這裏可能是想表達不符合人類常識與邏輯的執行方式)。

3)什麼樣的損失在監督輸出預測(譯者注:關注損失函數)?這個目標函數在什麼樣的背景假設下設立的?

ML模型是通過組合偏差和數據而形成的。有時偏差很強,有時偏差很弱。爲了使模型具有更好的泛化能力,你需要添加更多的偏差或添加更多的無偏數據。天下沒有免費的午餐

舉一個例子:許多最優控制算法都會假設一個固定的數據偶發過程,這個過程就是馬爾科夫決策過程(MDP)。在MDP中,"狀態 "和 "決策"通過環境的動態轉換來確定映射到 "下一個狀態、獎勵以及事件是否結束"。這種結構雖然很籠統,但也是可以用來構造一個損失,讓學習Q值遵循Bellman方程。

4)一旦模型被訓練後,對於以前沒見過的輸入/輸出對,模型能夠泛化到什麼程度?

歸功於所捕獲的數據信息或模型架構,ML系統可能會相當好地泛化到它以前從未見過的輸入。近年來,我們看到越來越多更高等次的泛化能力,所以在閱讀論文時,我注意觀察那些在論文中驚人的泛化能力以及它的泛化能力來自哪裏(數據、偏差或兩者都有)。

對於這個領域來說,更好的歸納偏差意味着存在更多的噪音,例如因果推理或符號方法或以對象爲中心的表示。這些是構建穩健可靠的ML系統的重要工具,我發現將結構化數據與模型偏差分開的界限可能是模糊的。話雖如此,但讓我感到困惑的是,有許多的研究人員認爲推動ML前進的方式是減少學習量(譯者注:訓練輪次)並增加編寫硬編碼的量。

我們之所以進行ML研究,恰恰是因爲有些東西我們不知道如何編寫硬編碼。作爲機器學習的研究者,我們應該把工作重點放在改進學習方法上,把編寫硬編碼和符號方法留給那些研究編寫硬編碼的研究者。

5)論文中的說法是否可以證僞?

那些聲稱不能證僞的論文是不屬於科學範疇的。


AI研習社是AI學術青年和AI開發者技術交流的在線社區。我們與高校、學術機構和產業界合作,通過提供學習、實戰和求職服務,爲AI學術青年和開發者的交流互助和職業發展打造一站式平臺,致力成爲中國最大的科技創新人才聚集地。

如果,你也是位熱愛分享的AI愛好者。歡迎與譯站一起,學習新知,分享成長。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章