2022年11月10篇論文推薦

隨着最大的人工智能研究會議(NeurIPS 2022)即將到來,我們進入了2022年的最後階段。讓我們回顧一下人工智能世界最近發生了什麼。

在介紹推薦論文之前,先說一個很有意思的項目:

img-to-music:想象圖像聽起來是什麼樣的模型! https://huggingface.co/spaces/fffiloni/img-to-music。有興趣的可以看看。

下面我們開始介紹10篇推薦的論文。這裏將涵蓋強化學習(RL)、擴散模型、自動駕駛、語言模型等主題。

1、Scaling Instruction-Finetuned Language Models

https://arxiv.org/abs/2210.11416

Hyung Won Chung, Le Hou, Shayne Longpre, Barret Zoph, Yi Tay et al.

一年前Google 的 FLAN¹ 展示瞭如何通過將帶標籤的 NLP 示例重新表述爲自然語言指令並將它們包含在預訓練語料庫中來提高語言模型 (LM) 的通用性。這篇論文則擴大該技術應用。

OpenAI 著名的 GPT系列的模型的一個成功關鍵是使用未標記數據進行訓練。但這並不意味着自迴歸 LM 不能使用標記數據進行訓練:註釋可以注入到模型的訓練中而無需任何架構更改。這裏的關鍵思想是:不是讓分類頭爲輸入輸出標籤,而是將帶標籤的例子重新表述爲用自然語言編寫的指令。例如,可以將帶有標籤的情感分類示例轉換爲具有以下模板的語句:

文本:The film had a terrific plot and magnific acting. 標籤[POSITIVE]

改爲:

The film [is good because it] had a terrific plot and magnific acting.

這裏有一個問題,就是要將零樣本性能與 GPT-3 等完全自監督模型進行比較,必須確保評估中使用的任務不包含在訓練集中!(也就是數據泄露的問題)

最初的 FLAN 論文在 137B 參數模型上,使用了有來自幾十個 NLP 任務的 30k 額外指令展示了這種技術的強大功能。 在本文中,他們通過將 (1) 任務數量擴展到 1836,(2) 模型大小擴展到 540B 參數,以及 (3) 添加思維鏈提示來進入下一個級別。

結果表明,添加指令會提高性能,尤其是對於較小的模型,但模型規模仍然是最大的因素。

完整的模型在谷歌的Research Github Repository上公開發布:

https://avoid.overfit.cn/post/25ce9e587880476486c151a2920d37e6

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章