情感分析技術在美團的探索與應用

2021年5月,美團NLP中心開源了迄今規模最大的基於真實場景的中文屬性級情感分析數據集ASAP,該數據集相關論文被自然語言處理頂會NAACL2021錄用,同時該數據集加入中文開源數據計劃千言,將與其他開源數據集一起推動中文信息處理技術的進步。本文回顧了美團情感分析技術的演進和在典型業務場景中的應用,包括篇章/句子級情感分析、屬性級情感分析和觀點三元組分析。在業務應用上,依託情感分析技術能力構建了在線實時預測服務和離線批量預測服務。截至目前,情感分析服務已經爲美團內部十多個業務場景提供了服務。

參考文獻

  • [1] https://github.com/Meituan-Dianping/asap.
  • [2] Bu J, Ren L, Zheng S, et al. ASAP: A Chinese Review Dataset Towards Aspect Category Sentiment Analysis and Rating Prediction. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. 2021.
  • [3] https://www.luge.ai/
  • [4] Zhang, L. , S. Wang , and B. Liu . "Deep Learning for Sentiment Analysis : A Survey." Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery (2018):e1253.
  • [5] Liu, Bing. "Sentiment analysis and opinion mining." Synthesis lectures on human language technologies 5.1 (2012): 1-167.
  • [6] Peng, Haiyun, et al. "Knowing what, how and why: A near complete solution for aspect-based sentiment analysis." In Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 34. No. 05. 2020.
  • [7] Zhang, Chen, et al. "A Multi-task Learning Framework for Opinion Triplet Extraction." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: Findings. 2020.
  • [8] Yoon Kim. 2014. Convolutional neural networks for sentence classification. arXiv preprint arXiv:1408.5882.
  • [9] Peng Zhou, Wei Shi, Jun Tian, Zhenyu Qi, Bingchen Li,Hongwei Hao, and Bo Xu. 2016. Attention-based bidirectional long short-term memory networks for relation classification. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pages 207–212.
  • [10] Devlin, Jacob, et al. “Bert: Pre-training of deep bidirectional transformers for language understanding.” arXiv preprint arXiv:1810.04805 (2018).
  • [11] 楊揚、佳昊等. 美團BERT的探索和實踐.
  • [12] Pontiki, Maria, et al. "Semeval-2016 task 5: Aspect based sentiment analysis." International workshop on semantic evaluation. 2016.
  • [13] Pontiki, M. , et al. "SemEval-2014 Task 4: Aspect Based Sentiment Analysis." In Proceedings of International Workshop on Semantic Evaluation at (2014).
  • [14] Yequan Wang, Minlie Huang, and Li Zhao. 2016. Attention-based lstm for aspect-level sentiment classification. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pages 606–615.
  • [15] Sara Sabour, Nicholas Frosst, and Geoffrey E Hinton. 2017. Dynamic routing between capsules. In Advances in neural information processing systems, pages 3856–3866.
  • [16] Chi Sun, Luyao Huang, and Xipeng Qiu. 2019. Utilizing bert for aspect-based sentiment analysis via constructing auxiliary sentence. arXiv preprint arXiv:1903.09588.
  • [17] Qingnan Jiang, Lei Chen, Ruifeng Xu, Xiang Ao, and Min Yang. 2019. A challenge dataset and effective models for aspect-based sentiment analysis. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 6281–6286.
  • [18] Wu, Zhen, et al. "Grid Tagging Scheme for End-to-End Fine-grained Opinion Extraction." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: Findings. 2020.
  • [19] Liu, Yinhan, et al. "Roberta: A robustly optimized bert pretraining approach." arXiv preprint arXiv:1907.11692 (2019).
  • [20] Clark, Kevin, et al. "Electra: Pre-training text encoders as discriminators rather than generators." arXiv preprint arXiv:2003.10555 (2020). 0- [21] Timothy Dozat and Christopher D. Manning. 2017.Deep biaffine attention for neural dependency parsing. In 5th International Conference on Learning Representations, ICLR 2017.

作者介紹

任磊、佳昊、張辰、楊揚、夢雪、馬放、金剛、武威等,均來自美團平臺搜索與NLP部NLP中心。

招聘信息

美團搜索與NLP部/NLP中心是負責美團人工智能技術研發的核心團隊,使命是打造世界一流的自然語言處理核心技術和服務能力。

NLP中心長期招聘自然語言處理算法專家/機器學習算法專家,感興趣的同學可以將簡歷發送至[email protected]。具體要求如下。

崗位職責

  1. 預訓練語言模型前瞻探索,包括但不限於知識驅動預訓練、任務型預訓練、多模態模型預訓練以及跨語言預訓練等方向;
  2. 負責百億參數以上超大模型的訓練與性能優化;
  3. 模型精調前瞻技術探索,包括但不限於Prompt Tuning、Adapter Tuning以及各種Parameter-efficient的遷移學習等方向;
  4. 模型inference/training壓縮技術前瞻探索,包括但不限於量化、剪枝、張量分析、KD以及NAS等;
  5. 完成預訓練模型在搜索、推薦、廣告等業務場景中的應用並實現業務目標;
  6. 參與美團內部NLP平臺建設和推廣

崗位要求

  1. 2年以上相關工作經驗,參與過搜索、推薦、廣告至少其一領域的算法開發工作,關注行業及學界進展;
  2. 紮實的算法基礎,熟悉自然語言處理、知識圖譜和機器學習技術,對技術開發及應用有熱情;
  3. 熟悉Python/Java等編程語言,有一定的工程能力;
  4. 熟悉Tensorflow、PyTorch等深度學習框架並有實際項目經驗;
  5. 熟悉RNN/CNN/Transformer/BERT/GPT等NLP模型並有過實際項目經驗;
  6. 目標感強,善於分析和發現問題,拆解簡化,能夠從日常工作中發現新的空間;
  7. 條理性強且有推動力,能夠梳理繁雜的工作並建立有效機制,推動上下游配合完成目標。

加分項

  1. 熟悉模型訓練各Optimizer基本原理,瞭解分佈式訓練基本方法與框架;
  2. 對於最新訓練加速方法有所瞭解,例如混合精度訓練、低比特訓練、分佈式梯度壓縮等

閱讀美團技術團隊更多技術文章合集

前端 | 算法 | 後端 | 數據 | 安全 | 運維 | iOS | Android | 測試

| 在公衆號菜單欄對話框回覆【2020年貨】、【2019年貨】、【2018年貨】、【2017年貨】等關鍵詞,可查看美團技術團隊歷年技術文章合集。

| 本文系美團技術團隊出品,著作權歸屬美團。歡迎出於分享和交流等非商業目的轉載或使用本文內容,敬請註明“內容轉載自美團技術團隊”。本文未經許可,不得進行商業性轉載或者使用。任何商用行爲,請發送郵件至[email protected]申請授權。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章