原创 NLP簡報(Issue#7)

本文發於微信訂閱號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 歡迎來到NLP簡報第七期。 ❤️ 💛 💚 文章目錄本文發於微信訂閱號:NewBeeNLP,歡迎關注獲取更多幹貨資源。1、Research and Publicat

原创 爲什麼BERT在商業環境碰壁?

本文首發於微信訂閱號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 大型基於Transformer的神經網絡,例如BERT,GPT和XLNET,最近在許多NLP任務中取得了最新的成果。 這些模型的成功基於通用任務(例如語言建模)

原创 NLP簡報(Issue#2):Reformer, DeepMath, ELECTRA, TinyBERT for Search, VizSeq, Open-Sourcing ML,…

本文首發於微信公衆號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 歡迎回到NLP簡報第二期! 如果想讓自己有趣的研究/項目出現在 NLP 簡報中,隨時在公衆號後臺留言聯繫我 來看看本期的內容, 文章目錄本文首發於微信公衆號:

原创 算法面經分享 | 雙非研究生斬獲大廠offer

本文發於微信訂閱號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 面試錦囊之面經分享系列,持續更新中 PS. 配合今日第二篇文章使用更佳,知己知彼 寫在前面 雙非,本科研究生一個學校。崗位:NLP。無實習,一篇中文核心,三個水比

原创 論文自由,ACL2020論文打包收藏!

寫在前面 細心的小夥伴一定發現最近關於ACL2020論文的解讀越來越多啦,本屆ACL論文的質量的確是非常有保證。爲了讓大家能及時掌握第一手資料,這裏分享一下我之前根據官方放榜目錄down下來的論文全集。 如果arxiv訪問慢的話,

原创 假如BERT系論文變成Commit History

最近,我在Twitter上發現了一個有趣的話題,假設有這樣一個場景,論文研究在GitHub上發佈,而後續論文則會提交與原始論文不同之處。在人工智能機器學習領域,信息過載一直是一個大問題,每個月都有大量新論文發表,這樣的通過comm

原创 算法面經分享

本文發於微信訂閱號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 螞蟻金服 一面(1h) 自我介紹 詳細的問了之前實習工作內容(第一次被問到實習經歷部分 詳細講解GBDT GBDT和xgboost的區別 手撕代碼,阿里伯樂上寫

原创 NLP簡報(Issue#10)

本文發於微信訂閱號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 文章目錄本文發於微信訂閱號:NewBeeNLP,歡迎關注獲取更多幹貨資源。1、Research and Publications 📙1.1 XTREME1.2 給

原创 【五一福利送書】深度學習如何入門?復旦大學邱錫鵬教授《神經網絡與深度學習》來啦!

關注公衆號NewBeeNLP參與送書活動 被廣大讀者稱爲【入門深度學習領域極佳教材】的復旦大學邱錫鵬教授著作《神經網絡與深度學習》紙書正式出版了! 這本書的內容非常豐富而又全面,配套超完整的【PPT+編程練習+課後習題討論】 方

原创 讀書節後續 | 我與自然語言的故事

還記得咱們讀書節的活動麼,【讀書節福利】機器閱讀理解資料集合 + 送書,非常感謝華章圖書的贊助,也非常高興大家能積極真心地參與。後續小破號也會經常搞類似的福利,記得關注參加哈 今天這篇主要就是公佈一下 三個幸運兒 + 一個新嘗試(

原创 【讀書節福利】機器閱讀理解資料集合 + 送書

寫在前面 最近半個月排除萬難,帶着兩隻貓從浙江到上海到北京,居家隔離14天后已經入職快一週了。剛入職要學習適應的東西還是挺多的,所以小破號更新的頻率會沒以前那麼高,還希望大家理解哈。 說正事,本來今天是沒有發文計劃的,服務器上代碼

原创 從不同解碼策略看機器如何生成文本

寫在前面 最近,由於在大規模語料集上訓練的大型Transformer-based語言模型的興起(如著名的OpenAI-GPT2模型),社區對開放式語言生成的興趣日益增加。 GPT2、XLNet、CTRL這些開放式語言生成的結果令人

原创 NLP簡報(Issue#9)

文章目錄1、Research and Publications 📙1.1 RONEC1.2 小樣本學習綜述1.3 Scaling Laws for Neural Language Models1.4 預訓練Transformers

原创 關於邏輯迴歸,面試官們都怎麼問

本文發於微信訂閱號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 「面試官們都怎麼問」系列文章主旨是儘可能完整全面地整理ML/DL/NLP相關知識點,不管是剛入門的新手、準備面試的同學或是溫故知新的前輩,我們希望都能通過這一系列

原创 Transformers Assemble(PART V)

本文首發於微信公衆號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 Transformers Assemble(PART V) 最近我發現CSDN上抄襲我的文章的那些閱讀量居然比我原創的還要高,氣死… Set Transfo