牛亞男:基於多Domain多任務學習框架和Transformer,搭建快精排模型

file


導讀: 本文主要介紹了快手的精排模型實踐,包括快手的推薦系統,以及結合快手業務展開的各種模型實戰和探索,全文圍繞以下幾大方面展開:

  • 快手推薦系統
  • CTR模型——PPNet
  • 多domain多任務學習框架
  • 短期行爲序列建模
  • 長期行爲序列建模
  • 千億特徵,萬億參數模型
  • 總結和展望

--

01 快手推薦系統

快手的推薦系統類似於一個信息檢索範式,只不過沒有用戶顯示query。結構爲數據漏斗,候選集有百億量級的短視頻,在召回層,會召回萬級的視頻給粗排打分,再選取數百個短視頻,給精排模型打分,最後會有數十個短視頻進行重排。推薦主要是雙類或單類,快手推薦的特點是用戶比較多,會超過3.0億。我們的短視頻,每天有百億的分發量,候選的短視頻有百億之多,用戶的行爲差距會非常之大,比如,有些用戶每天會刷成百上千條短視頻,有些用戶又刷得非常少。相對於電商或者新聞來說,短視頻的玩法會更豐富,用戶的興趣非常廣泛,並且是不變的。

file

用戶的交互類型非常多,場景複雜。這裏簡單展示一下,主要有主站的雙列發現頁、主站精選、極速版發現頁,這些主要是用來幫助用戶發現可能感興趣的視頻,還有關注頁、同城頁。除了短視頻之外,還有直播、電商直播的推薦。對於整個推薦系統來說,我們最大的挑戰是如何爲用戶的興趣精準建模。

file

--

02 CTR模型——PPNet

file

這是我們2019年的模型,ctr的個性化預估是推薦系統的核心,主要用來預估用戶對視頻會不會點擊,預估效果直接影響用戶體驗。

從業界的演化來看,一方面是從特徵的交叉角度,另一方面是從用戶的行爲序列建模來提升模型個性化。這裏DNN核心爲全連接網絡。

特徵全局共享,主要用來捕捉全局用戶和短視頻的特徵。要做到真正的千人千面,需要用戶個性化的特徵更強一些。所以當時我們探索瞭如何爲DNN網絡增加個性化。我們嘗試了一些方法,最開始嘗試用stacking的方法,在最頂層或中間加一些user獨有的一些網絡,對網絡的參數,每個用戶是不同的,但是收益甚微。然後我們嘗試了另外一種方式,受LHUC的啓發,思想來源於語音識別,給每個用戶學習個性化的偏置項。

file

在網絡輸出的激活函數那裏,設置了個性化的偏置項,可以認爲是給每個用戶學了一個bias和一個vector。我們做了一些嘗試,但是基本上沒有太大的收益。

我們發現一些問題,總結來說,首先是用戶每天刷的樣本不足以讓網絡的參數收斂,因爲參數量相對來說比較少,這相當於是給一個用戶學一個最寬的一個id的embedding向量。

另外用戶每天都在上傳新的視頻,我們推薦的視頻,主要約束在兩天以內,所以會有一個視頻冷啓動的問題,而且基於流式訓練,會導致訓練樣本中各方面的噪聲非常大,如果是一個不穩定的網絡,也會導致embedding的效果變差。如果只是簡單學一個優質的id的embedding,則缺少足夠的動態表達能力。另外,如果只是通過bp的方法傳導梯度來更新id的embedding,其修正能力非常慢。最終我們在lte的基礎上設計了一個pnet,以全局共享爲基礎,進行個性化的微調;我們又設計了gate網絡來擬合個性化的參數:

  • 白色的部分可以認爲是原來的基線。這個基線主要是訓練原來的ctr模型。
  • 灰色和綠色部分是新加的,灰色部分是基於所有用戶共享的,綠色部分是門控網絡,通過門控網絡與灰色部分的網絡來學習用戶的個性化。

file

這兩部分的網絡也就是ppnet的網絡結構。上線後,收益非常明顯。包括所有用戶細分上提升都是非常明顯的,特別是一些行爲比較稀疏的用戶,他們的提升非常大,因爲他們的行爲相對來說比較少,之前的兩個方案模型很難學到他們的一些特徵。這套方案給我們提供了一個比較通用的提升模型個性化的方法。

我們推廣到了一些其他場景,實現多場景應用。但是這個算法的計算量比較大,因此我們對線上的預估服務做了一次升級——原來是cpu預估,我們在2019年10月份做了gpu加速預估。

--

03 多domain多任務學習框架

file

快手的產品場景非常多樣,包括主站發現頁、主站精選、發現頁內流、極速版發現頁等。另一方面,人羣多樣化,包括新用戶、老用戶、激活用戶等。另外,這兩個場景正交,就有幾十個目標。因此,我們要預估的目標也會非常多。這樣會存在一系列的問題,比如業務獨佔模型會導致訓練資源低效、迭代低效、業務間不共享網絡等。爲了解決這些問題,我們在模型融合場景下做了多任務學習。

file

對於模型融合,我們做了很多工作,比如特徵語義對齊,主要包括刪減無用特徵,改正語義不一致特徵,添加單列播放列表類特徵、交叉特徵;embedding空間的對齊,通過Embedding transform gate,直接學習映射關係;特徵重要性對齊,這裏用到了slot gate,主要參考了前面提到的ppnet裏面的gate設計方案。在不同的場景下,不同的用戶或視頻,對於特徵的重要性選擇,gate會把它約束在0~2,均值是1,動態選擇這個特徵是重要還是不重要,這樣我們可以將樣本的特徵做一個比較好的對齊。最後,我們做了一個多目標的mmoe,動態建模目標之間的關係,每個task tower輸入添加個性化偏置項。通過上面的工作,我們成功將在線與離線的模型融合成一套模型,全業務推全,用戶交互漲幅提升近10%,效果顯著。

--

04 短期行爲序列建模

接下來介紹短期行爲序列建模的工作,在2019年初,快手交互場景越來越多,同時出現了單雙列的交互體驗,單雙列業務下用戶行爲序列存在差異。單列剝奪了用戶主動點的權利,用戶更多是被動來看推薦系統推薦的短視頻,因此,單列更適合作E&E。雙列的交互體驗下用戶獲得的主動性、可選擇性強,用戶的點擊歷史沒有太多的特徵可以學習,用戶會不斷地釋放自己想看的內容,釋放自己的慾望,可能會一直不斷地在看相關的一些內容。我們當時做了一些嘗試,發現RNN表現不如sum pooling,其相關性大於時序性。因此我們對算法做了四個方面的改進:

① 使用encoder部分:對歷史序列進行表徵

② 使用用戶視頻播放歷史序列

  • 包含用戶更多信息(觀看時長,交互label)
  • 不同業務語義一致

③ Transformer layer self attention替爲target attention

  • Self attention無明顯收益
  • 使用當前embedding層對sequence做attention
  • 簡化計算複雜度 O(n2d) -> O(nd)

④ log(now - 視頻觀看時間戳) 代替position embedding

  • 最近觀看視頻更相關,log處理更合適
  • 更久之前觀看視頻體現用戶長期興趣分佈

file

首先,使用encoder部分對歷史序列進行表徵。其次,使用用戶視頻播放歷史序列,因爲裏面包含用戶更多信息(觀看時長、交互label)。另外,將Transformer layer self attention替換爲target attention,主要是self attention無明顯收益,然後使用當前embeding層對sequence做attention,因爲我們認爲對用戶的行爲歷史作爲監測的時候,不應該只看要推薦的這個視頻,我們還會關注這是一個什麼用戶,這個用戶的上下文信息是非常有用的。最後,使用log(現在時間-視頻觀看時間)代替position embedding,因爲最近觀看視頻更相關,log處理更合適。上線之後,取得了非常大的收益。

--

05 長期行爲序列建模

file

推薦系統擁有短期記憶,容易導致信息繭房或者出現多樣性不足的一些問題。但是在長期行爲建模的時候又遇到了各種問題,比如:Transformer建模問題,SIM用戶歷史索引問題等。Transformer建模容易出現結構限制,模型在過長的list上收斂性不好。另外,模型複雜度高,Target Attention計算成本也會很高。SIM用戶歷史索引的擴展性差,對於後續的迭代不友好,而且對於短視頻類目精準度和覆蓋率也有問題。爲了能夠捕捉到用戶不同程度的興趣偏好,我們迭代了兩個版本模型,作了很多探索和改進。

下面介紹快手在長期行爲序列建模的工作。

file

  • 第一個版本方案V1.0(基於Tag檢索)

爲了應對上面提到的一些問題,我們採用了獨立存儲方案,依託AEP高密度存儲設備直接存儲用戶超長行爲歷史;進一步完善類目體系;GSU檢索採用回溯補全算法,最大路徑匹配的算法衡量相似度;ESU採用短時。關於Transformer方案,難點在於計算量增加,因此我們進行了算法優化;合併相同Tag候選視頻的搜索過程;提前建立類目倒排鏈,簡化搜索流程;成本優化,利用線上 GPU 推理服務器的閒置 CPU 資源。通過這些嘗試,我們做到了讓SIM算法首次在短視頻推薦落地;在業界首次覆蓋用戶歷史至年,這是數萬級別的;收益巨大,建立了護城河;擴展到了其他場景。

file

  • V2.0(基於Embedding距離檢索)

後面又做了第二個版本,基於視頻內容embedding的聚類。採用GSU檢索算法:優先聚類內視頻;最近聚類補全;近似做了餘弦相似度檢索。

其次,又節省了餘弦相似度計算量。通過這些工作,我們取得了一些成果:建立了快手特色的長期行爲建模機制;收益巨大,建立了護城河;擴展到了其他場景。

經過這兩版的迭代,整體效果提升明顯,人均app使用時長提升顯著,其中我們的工作做了非常多的貢獻。

--

06 千億特徵,萬億參數模型

另外,我們發現模型的特徵量還會制約模型精排的效果。模型收斂不穩定,模型更容易逐出低頻特徵、冷啓動效果變差等。爲此,我們在工程上做了一些優化,也起到了非常好的收益。主要包括:

  • 改進參數服務器(GSET)
  • 更好地控制內存使用
  • 定製feature score淘汰策略
  • 效果優於LFU,LRU等淘汰策略
  • 結合新的硬件:非易失內存(Intel AEP)
  • 底層KV引擎NVMKV來支撐GSET

--

07 總結和展望

對於未來優化的重點,我們會放在模型融合,多任務學習方向。另外用戶長短期興趣怎樣更好得建模和融合,以及用戶的留存建模也是我們未來優化的重點。

今天的分享就到這裏,謝謝大家。
本文首發於微信公衆號“DataFunTalk”。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章