原创 Transformer Assemble(PART III)

本文首發於微信公衆號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 這一期魔改Transformers主要關注對原始模型中位置信息的討論與優化, Self-Attention with RPR from Google,NAA

原创 關於transformer,面試官們都怎麼問

本文首發於微信公衆號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 PS.全文較長,爲了方便大家閱讀,我整理了PDF版本,微信公衆號後臺回覆TS即可自取。 關於transformer,面試官們都怎麼問 模型總覽: 1.Tr

原创 473頁數學基礎:《應用線性代數》(附pdf和ppt下載)

衆所周知,人工智能的基礎是數學,玩轉AI必須首先打好數學的基礎。 今天推薦斯坦福大學的Stephen Boyd教授和UCLA的L. Vandenberghe教授合著的《應用線性代數》,他們兩位分別在各自學校開設了對應的課程,來教

原创 NLP簡報(Issue#8)

本文首發於微信公衆號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 歡迎來到 NLP 時事簡報第八期!全文較長,建議收藏。 如果想讓自己有趣的研究/項目出現在NLP簡報中,歡迎在公衆號後臺留言聯繫我 來看看都有哪些內容,enjo

原创 更小的模型,邁向更快更環保的NLP

寫在前面 越大的模型總是越好嗎? 長期以來,在屠虐各大排行榜的驅動下,NLP players對此問題的答案似乎是肯定的。 從Google於2018年10月發佈BERT(base版本爲1.1億個參數)到Salesforce於2019

原创 Transformers Assemble(PART IV)

本文首發於微信公衆號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 上一篇Transformers Assemble(PART III)重點在transformer位置信息的改進,這一集挑選了幾篇都帶有「Sparse」的標籤,主

原创 業務,工程和算法的互毆現場

本文發於微信公衆號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 事情是這樣的… 小陳所在的團隊每週的週一,週三,週五都會在晚上法定下班時間後(此處要打碼?)做一個一小時的技術分享。一天,正當小陳津津有味的聽同事唾沫橫飛的講解

原创 微軟UNILM 2.0:優雅的統一預訓練模型

本文首發於微信公衆號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 刷arxiv看到了之前比較喜歡的一個工作UNILM的續集,這不得提高優先級先來品品(雖然還有一大堆TODO)。關於UNILM 1.0 在之前的文章中已經有介紹了

原创 Huggingface出品!NLP論文研討會

本文首發於微信公衆號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 提起Huggingface大家肯定非常熟悉了,開源的transformer庫備受好評,目前star已經有23.7K了,可以在All Models and che

原创 BART原理簡介與代碼實戰

寫在前面 最近huggingface的transformer庫,增加了BART模型,Bart是該庫中最早的Seq2Seq模型之一,在文本生成任務,例如摘要抽取方面達到了SOTA的結果。 本次放出了三組不同的預訓練權重: bar

原创 細數python標準庫中低調的模塊

本文首發於微信公衆號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 有沒有遇到過這種情況,在網絡上搜索如何使用Python進行某種操作,最終找到一個第三方庫,直到後來發現標準庫中包含的模塊或多或少都可以滿足你的需求。這種情況並不

原创 NLP簡報(Issue#5):The Annotated GPT-2、CodeBERT、JAX、GANILLA等

本文首發於微信公衆號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 NLP簡報(Issue#5):The Annotated GPT-2、CodeBERT、JAX、GANILLA等 歡迎來到 NLP 時事簡報第五期!全文較長,建

原创 我從AI For Everyone學到的十個重要AI 概念

本文首發於微信公衆號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 在這個人機共存的年代,每個人都應該去嘗試瞭解並運用人工智慧這個超能力。思考自己未來在這個變化快速的世界的定位。 曾經領導Google Brain 的吳恩達教

原创 頭條+騰訊 雙殺面經(NLP實習)

本文發於微信公衆號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 面試錦囊之面經分享系列,持續更新中。 訂閱後臺回覆"面試",即可加入AI&NLP算法面試交流羣。 先說一下背景:本科雙非,碩士211,沒論文,一段半年的大廠NLP

原创 我是如何收集信息的

本文首發於微信公衆號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 我是如何收集信息的 在當下,很多時候問題不在於找不到信息,而在於如何從垃圾信息的海洋中找到優質信息的孤島。兩個指導原則如下: 英文世界比中文世界有着更多的優質