#Paper Reading# Personalized Context-aware Re-ranking for E-commerce Recommender Systems

論文題目: Personalized Context-aware Re-ranking for E-commerce Recommender Systems
論文地址: https://arxiv.org/abs/1904.06813
論文發表於: arxiv,2019.04

論文大體內容:
本文主要提出了PCRM(Personalized Context-aware Re-ranking Model)模型,將Google BERT中使用的Transformer結構應用到Listwise的Learning To Rank裏面,並在offline和online都取得不錯的效果。

1. 傳統的pointwise方法,只能獨立給每個item打分,沒有考慮到item之間的相互關係,以及user的意圖,所以本文提出了一個個性化context-aware的rerank模型,主要是使用Transformer結構來優化listwise。其中Transformer使用了self-attention的方法來對list裏面的每一對item的關係進行建模;

2. 本文主要工作包括:
①PCRM首次引入個性化的信息到rerank的模型中;(傳統CTR模型的最後一個hidden layer作爲PCRM的特徵)
②使用了Transformer結構,相比RNN更高效;
③發佈了一個手淘的large-scale數據集,共1400萬+樣本,24GB;
④做了offline和online的evaluation;

3. 作者認爲在傳統的pointwise CTR模型後,還得考慮2個關係,才能使得推薦結果更好:
①Local context information:item之間的依賴關係;
②Global context information:user和item之間的交互關係

4. PCRM模型的整體框架如圖,主要包括以下3個部分:
①Input Layer
-Local context information的X;
-Global context information的PV,是通過預訓練傳統CTR模型的最後一個hidden layer;
-Position embedding;
②Encoding Layer,就是使用了Transformer[1]的結構,包括Multi-Head Attention(多個self-attention的ensemble)、FFN;
③Output Layer,對每個item進行softmax,給每個item打rerank分(一次請求10個item是一條樣本-->Lisewise),使用了Adam算子;

實驗
5. Dataset

6. Baseline
LTR
①SVMRank;
②LambdaMart;
③DNN-based LTR(WDL);
Rerank
④DLCM

7. 評測方法
offline
①Precision@k;
②MAP@k;
online
③PV;(曝光)
④IPV;(點擊)
⑤CTR;(IPV/PV)
⑥GMV;

8. 實驗結果


參考資料: 
[1] Transformer理解 https://zhuanlan.zhihu.com/p/48508221

 

以上均爲個人見解,因本人水平有限,如發現有所錯漏,敬請指出,謝謝!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章