原创 人大副教授從細節上教你如何快速進行研究生早期的科研之路

點擊上方,選擇星標或置頂,每天給你送乾貨!閱讀大概需要17分鐘跟隨小博主,每天進步一丟丟來自:RUC AI Box作者:中國人民大學教師趙鑫主頁:http://aibox.ruc.edu.cn/ 之前寫了一篇文章《計算機系本科生開展科研

原创 中文情感分析 (Sentiment Analysis) 的難點在哪?現在做得比較好的有哪幾家?

點擊上方,選擇星標或置頂,每天給你送乾貨!閱讀大概需要25分鐘跟隨小博主,每天進步一丟丟來自: 知乎編輯: 深度學習自然語言處理公衆號地址: https://www.zhihu.com/question/20700012本文僅作學術分享

原创 Multi-Task Learning的幾篇綜述文章

點擊上方,選擇星標或置頂,每天給你送乾貨!閱讀大概需要9分鐘跟隨小博主,每天進步一丟丟來自 | 知乎地址 | https://zhuanlan.zhihu.com/p/145706170作者 | 黃浴編輯 | 機器學習算法與自然語言處理

原创 AdaX:一個比Adam更優秀,帶”長期記憶“的優化器

文 | 蘇劍林(追一科技,人稱蘇神)美 | 人美心細小謹思密達來自 | 夕小瑤的賣萌屋前言這篇文章簡單介紹一個叫做AdaX的優化器,來自《AdaX: Adaptive Gradient Descent with Exponential

原创 【科研】論文得分低、瀕臨被拒不要慌,18條rebuttal小貼士助你說服評審和AC

選自medium作者:Devi Parikh機器之心編譯機器之心編輯部優秀的 rebuttal 能絕地逢生,糟糕的 rebuttal 會過猶不及!我們都知道,對於頂會投稿來說,rebuttal 是必不可少的一個階段。通過 rebutta

原创 Multi-task Learning and Beyond: 過去,現在與未來

點擊上方,選擇星標或置頂,每天給你送乾貨!閱讀大概需要20分鐘跟隨小博主,每天進步一丟丟來自 | 知乎   作者 | 劉詩昆鏈接 | https://zhuanlan.zhihu.com/p/138597214編輯 | 深度學習這件小事

原创 Python 函數合集:足足 68 個內置函數請收好

點擊上方,選擇星標或置頂,每天給你送乾貨!閱讀大概需要13分鐘跟隨小博主,每天進步一丟丟來源:pypypypywww.cnblogs.com/pypypy/p/12011506.html內置函數就是python給你提供的, 拿來直接用的

原创 【NLP落地應用】內容理解在新浪微博廣告中的應用

來自:DataFunTalk嘉賓:陳兆基 微博 資深算法專家整理:付一韜 來源:DataFunTalk導讀:做算法的人常說"數據爲王", 而對於做廣告的人來說,內容理解則是廣告投放的基礎。本次分享將介紹在微博廣告中,內容理解起到了哪些作

原创 【SCIR論文】ACL20 基於對話圖譜的開放域多輪對話策略學習

論文名稱:Conversational Graph Grounded Policy Learning for Open-Domain Conversation Generation論文作者:徐俊,王海峯,牛正雨,吳華,車萬翔,劉挺原創作

原创 你大爺永遠是你大爺!浙工大最“燃”研究生64歲高齡畢業,導師稱:他的論文最棒!...

點擊上方,選擇星標或置頂,每天給你送乾貨!閱讀大概需要7分鐘跟隨小博主,每天進步一丟丟“如果能重選一次,我依舊會選擇讀研。”圖片上的這位64歲高齡爺爺是今年剛從浙江工業大學法學院畢業的研究生,他2017年成功考入浙工大,成爲了一名法學專

原创 【工大SCIR論文解讀】WWW20 關鍵詞生成提升電商會話推薦

論文名稱:Keywords Generation Improves E-Commerce Session-based Recommendation論文作者:劉元興,任昭春,張偉男,車萬翔,劉挺,殷大偉原創作者:劉元興論文鏈接:https

原创 【ACL2020】最新效果顯著的關係抽取框架了解一下?

來自:AI自然語言處理與知識圖譜效果顯著的關係抽取框架導    語:從非結構化文本中抽取三元組是構建大規模知識圖譜的必備關鍵,然而現有的研究工作鮮有去解決三元組重疊的問題,針對此問題,本文從全新的視角提出一個新的關係抽取框架:CASRE

原创 "Linformer" 拍了拍 "被吊打 Transformers 的後浪們"

原創 · 作者 | 龔俊民學校 | 新南威爾士大學碩士生公司 | Vivo AI Lab研究方向 | 自然語言處理和可解釋學習來自 | AINLP論文標題:《Linformer: Self-Attention with Linear C

原创 如何讓Bert在finetune小數據集時更“穩”一點

作者:邱震宇(華泰證券股份有限公司 算法工程師)知乎專欄:我的ai之路來自:AINLP最近刷到一篇論文,題目是Revisiting Few-sample BERT Fine-tuning 。論文剛掛到arxiv上,雖然關注的人還不是很多

原创 如何寫論文?看下這份《科研論文撰寫策略》爲你指點一二

點擊上方,選擇星標或置頂,每天給你送乾貨!閱讀大概需要4分鐘跟隨小博主,每天進步一丟丟轉載自:專知撰寫和發表優秀的研究論文是必不可少的,原因有很多:不僅可以促進研究人員的學術生涯,而且最重要的是傳播研究成果和推進實證知識的狀態。此外,出