基於Elasticsearch搜索平臺設計(轉)

轉自:https://www.cnblogs.com/tylercao/p/7672865.html

背景

隨着公司業務的高速發展以及數據爆炸式的增長,當前公司各產線都有關於搜索方面的需求,但是以前的搜索服務系統由於架構與業務上的設計,不能很好的滿足各個業務線的期望,主要體現下面三個問題:

  1. 不能支持對語句級別的搜索,大量業務相關的屬性根本無法實現
  2. 沒有任何搜索相關的指標評價體系
  3. 擴展性與維護性特別差

基於現狀,對行業內的搜索服務做出充分調研,確認使用ElasticSearch做底層索引存儲,同時重新設計現有搜索服務,使其滿足業務方對維護性、定製化搜索排序方面的需求。

整體技術架構

滬江搜索服務底層基於分佈式搜索引擎ElasticSearch,ElasticSearch是一個基於Lucene構建的開源,分佈式,Restful搜索引擎;能夠達到近實時搜索,穩定,可靠,快速響應的要求。

搜索服務整體分爲5個子系統

  • 搜索服務(Search Server) : 提供搜索與查詢的功能
  • 更新服務(Index Server) : 提供增量更新與全量更新的功能
  • Admin 控制檯 : 提供UI界面,方便索引相關的維護操作
  • ElasticSearch存儲系統 : 底層索引數據存儲服務
  • 監控平臺: 提供基於ELK日誌與zabbix的監控

外部系統接口設計

  • 查詢
    • 查詢接口提供http的調用方式,當出現跨機房訪問的時候,請使用http接口,其餘都可以使用dubbo RPC調用
  • 增量更新
    • 數據增量更新接口採用提供MQ的方式接入。當業務方出現數據更新的時候,只需將數據推送到對應的MQ通道中即可。更新服務會監聽每個業務方通道,及時將數據更新到ElasticSearch中
  • 全量索引
    • 更新服務會調用業務方提供的全量Http接口(該接口需提供分頁查詢等功能)

全量更新

衆所周知,全量更新的功能在搜索服務中是必不可少的一環。它主要能解決以下三個問題

  • 業務方本身系統的故障,出現大量數據的丟失
  • 業務高速發展產生增減字段或者修改分詞算法等相關的需求
  • 業務冷啓動會有一次性導入大批量數據的需求

基於上面提到的問題,我們與業務方合作實現了全量索引。但是在這個過程中,我們也發現一個通用的問題。在進行全量更新的時候,其實增量更新也在同時進行,如果這兩種更新同時在進行的話,就會有遇到少量增量更新的數據丟失。比如說下面這個場景

  1. 業務方發現自己搜索業務alias_A數據大量數據丟失,所以進行索引重建。其中alias_A是別名,就是我們通常說alias,但是底層真正的索引是index_201701011200(建議:索引裏面包含時間屬性,這樣就能知道是什麼創建的)
  2. 首先創建一個新的索引index_201706011200,然後從數據中拉出數據並插入ES中,並記錄時間戳T1,最後索引完成的時間戳爲T2,並切換搜索別名index_1指向index_201706011200。
  3. 索引創建成功之後的最新數據爲T1這個時刻的,但是T1到T2這段時間的數據,並沒有獲取出來。同時index_201701011200老索引還在繼續消費MQ中的數據,包括T1到T2時間內的缺少數據。
  4. 所以每次索引重建的時候,都會缺少T1T2時間內的數據。

最後,針對上面這個場景,我們提出通過zookeeper分佈式鎖來暫停index consumer的消費,具體步驟如下

  1. 創建new_index
  2. 獲取該index 對應的別名,來修改分佈式鎖的狀態爲stop
  3. index consumer監控stop狀態,暫停索引數據的更新
  4. new_index索引數據創建完畢,更新分佈式鎖狀態爲start
  5. index consumer監控start狀態,繼續索引數據的更新


這樣的話,我們就不用擔心在創建索引的這段時間內,數據會有缺少的問題。相信大家對於這種方式解決全量與增量更新數據有所體會。

集羣無縫擴容

數據量爆炸式的增加,導致我們ES集羣最終還是遇到了容量不足的問題。在此背景下,同時結合ES本身提供的無縫擴容功能,我們最終決定對線上ES集羣進行了在線的無縫擴容,將從原來的3臺機器擴容爲5臺,具體步驟如下

  • 擴容前準備
    • 目前我們線上已經有3臺機器正在運行着,其中node1爲master節點,node2和node3爲data節點,節點通信採用單播的形式而非廣播的方式。
    • 準備2臺(node4與node5)機器,其中機器本身配置與ES配置參數需保持一致
  • 擴容中增加節點
    • 啓動node4與node5(注意一個一個啓動),啓動完成之後,查看node1,2,3,4,5節點狀態,正常情況下node1,2,3節點都已發現node4與node5,並且各節點之間狀態應該是一致的
  • 重啓master node
    • 修改node1,2,3節點配置與node4,5保持一致,然後順序重啓node2與node3,一定要優先重啓data node,最後我們在重啓node1(master node).到此爲止,我們的線上ES集羣就在線無縫的擴容完畢

部署優化

  • 查詢與更新服務分離
    • 查詢服務與更新服務在部署上進行物理隔離,這樣可以隔離更新服務的不穩定對查詢服務的影響
  • 預留一半內存
    • ES底層存儲引擎是基於Lucene,Lucenede的倒排索引是先在內存中生成,然後定期以段的形式異步刷新到磁盤上,同時操作系統也會把這些段文件緩存起來,以便更快的訪問。所以Lucene的性能取決於和OS的交互,如果你把所有的內存都分配給Elasticsearch,不留一點給Lucene,那你的全文檢索性能會很差的。所有官方建議,預留一半以上內存給Lucene使用
  • 內存不要超過32G
    • 跨32G的時候,會出現一些現象使得內存使用率還不如低於32G,具體原因請參考官方提供的這篇文章 Don’t Cross 32 GB!
  • 儘量避免使用wildcard
    • 其實使用wildcard查詢,有點類似於在數據庫中使用左右通配符查詢。(如:*foo*z這樣的形式)
  • 設置合理的刷新時間
    • ES中默認index.refresh_interval參數爲1s。對於大多數搜索場景來說,數據生效時間不需要這麼及時,所以大家可以根據自己業務的容忍程度來調整

總結

本章主要介紹公司搜索服務的整體架構,重點對全量更新中數據一致性的問題,ES在線擴容做了一定的闡述,同時列舉了一些公司在部署ES上做的一些優化。本文主要目的,希望大家通過閱讀滬江搜索實踐,能夠給廣大讀者帶來一些關於搭建一套通用搜索的建議。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章