HBase+ElasticSearch二級索引實踐一年後總結


前言:還記得那是2018年的一個夏天,天氣特別熱,我一邊擦汗一邊聽領導大刀闊斧的講述自己未來的改革藍圖。會議開完了,核心思想就是:我們要搞一個數據大池子,要把公司能灌的數據都灌入這個大池子,然後讓別人用 各種姿勢 來撈這些數據。系統從開始打造到上線差不多花了半年多不到一年的時間,線上穩定運行也有一年多的時間。今天想簡單做個總結。

一。背景介紹

公司成立差不多十五六年了,老公司了。也正是因爲資格老,業務迭代太多了,各個業務線錯綜複雜,接口調用也密密麻麻。有時候A向B要數據,有時候B向C要接口,有時候C向A要服務;各個業務線各有各的財產,各自爲營,像一個個小諸侯擁兵自重,跑腿費會議費都貴的很。面對這個現狀,我們急需進行一波大改造了。

而這個系統(我們暫且叫它天池吧),正是爲了整合公司各個業務線的資源,改造這個錯綜複雜的蜘蛛網爲簡單的直線班車。省去不必要的接口調用、業務穿插、會議溝通以及不知去哪裏拿數據、拿不到數據、拿數據慢的困擾。當然,更節省了產品、開發人員的時間,提升了各業務線整體工作效率。

幾個詞形容一下天池:穩、快、大、省、清晰。

二。業務梳理

經過對公司各線業務進行梳理,總結出以下幾大常見的數據輸出模型:

  • Key-Value快速輸出型,最簡單的kv查詢,併發量可能很高,速度要求快。比如風控。

  • Key-Map快速輸出型,定向輸出,比如常見的通過文章id獲取文章詳情數據,kv查詢升級版。

  • MultiKey-Map批量輸出型,比如常見的推薦Feed流展示,Key-Map查詢升級版。

  • C-List多維查詢輸出型,指定多個條件進行數據過濾,條件可能很靈活,分頁輸出滿足條件的數據。這應該是非常常見的,比如篩選指定標籤或打分的商品進行推薦、獲取指定用戶過去某段時間買過的商品等等。

  • G-Top統計排行輸出型,根據某些維度分組,展示排行。如獲取某論壇熱度最高Top10帖子。

  • G-Count統計分析輸出型,數倉統計分析型需求。

  • Multi-Table混合輸出型,且不同表查詢條件不同,如列表頁混排輸出內容。

  • Term分詞輸出型

或許還有更多數據模型,這裏就不再列舉了。從前端到後臺,無論再多數據模型,其實都可以轉化爲索引+KV的形式進行輸出,甚至有時候,我覺得索引+KV>SQL

基於此業務數據模型分析及公司對ElasticSearch的長期使用,我們最終選擇了HBase + ElasticSearch這樣的技術方案來實現。

三。架構設計與模塊介紹

先看一下整體架構圖,如下圖:

架構設計

整個天池系統核心主要分爲數據接入層、策略輸出層、元數據管理、索引建立、平臺監控以及離線數據分析六大子模塊,下面將分別對其進行介紹。

1. 數據接入模塊介紹

數據接入模塊我們主要對HBase-Client API進行了二次輕封裝,支持在線RESTFUL服務接口和離線SDK包兩種主要方式對外提供服務,同時兼容HBase原生API和HBase BulkLoad大批量數據寫入。

其中,在線RESTFUL服務以HBase Connection長連接的方式對外提供服務,好處是:在性能影響不大的情況下方便跨語言操作,更主要的一點是便於管理。在這一層,可以做很多工作,比如權限管理、負載均衡、失敗恢復、動態擴縮容、數據接口監控等等,當然這一切都要感謝K8S的強大能力。

2. 策略輸出模塊介紹

該模塊主要就是對接我們上文業務梳理模塊歸納的各種業務需求,都由此模塊提供服務。顧名思義,策略模塊主要用於爲用戶配置策略,或用戶自己配置策略,最終基於策略生成策略ID。

這一層我們主要是對ElasticSearch和HBase的一些封裝,通過動態模板將用戶請求轉化爲ElasticSearch DSL語句,而後對ES進行查詢,直接返回數據或是獲取到rowkey進而查詢HBase進行結果返回。

通過元數據管理中心,我們可以判斷出用戶所需字段是否被索引字段覆蓋,是否有必要二次查詢HBase返回結果。而這整個查詢過程,用戶並不會感知,他們只需要一個PolicyID即可。

當然,我們也在不斷普及用戶如何通過後臺自己配置生成策略。合作較多的業務方,甚至可以自己在測試環境配置好一切,完成數據的自助獲取工作。而我們需要做的,只是一鍵同步測試環境的策略到線上環境,並通知他們線上已可用。整個過程5~10分鐘,一個新的接口就誕生了。

其次,由於ES抗壓能力畢竟不如HBase猛,我們的策略接口也會根據業務需求決定是否開啓緩存。事實上,大部分接口是可以接受短時間內數據緩存的。當然像簡單KV、K-Map、MK-Map這種是直接走HBase的,需求量也挺大。

到目前爲止,上述業務輸出模型基本都已支持動態策略配置。這真的要感謝ElasticSearch強大的語法和業務場景覆蓋能力,畢竟在我看來,ElasticSearch更像是一個爲業務而生的產品。

深入瞭解ES後,你會發現在有些方面它真的比SQL更強大;現在我們的策略平臺甚至支持分詞查詢、分桶查詢、多表聯合查詢、TopN、聚合查詢等多種複合查詢,這都要感謝ElasticSearch強大的功能。

3. 元數據管理模塊介紹

大家都知道HBase是No-Schema模型,元數據管理層我們也就是爲其和ES做一個虛擬的Schema管理,同時去動態控制哪些字段要建索引。

在數據接入的時候,我們會通過元數據中心判斷數據是否符合規則(我們自己定的一些規則);在數據輸出的時候,我們控制哪些策略需要走緩存,哪些策略不需要走HBase等等。

其次,維護一套元數據方便我們做一些簡單的頁面指標監控,並對ES和HBase有一個總線控制(如建表刪表等),該模塊就不多說了。

4. 索引建立模塊介紹

這個模塊呢,其實算是相對比較複雜的一個模塊。我們沒有采用HBase + WAL + ES的方式而是HBase + Kafka + ES 的方式去同步索引數據。一是因爲WAL層不太好控制和監控,二是ES消費WAL的效率問題,三是WAL層數據一致性不好維護。

所以我們把一部分的工作放到了數據接入層,在數據寫完HBase之後,即對外響應Success並異步將數據推至Kafak隊列中等待ES去二次消費;寫入失敗則對外拋出異常,我們首先要保證的是,寫入HBase要麼成功,要麼失敗。

在ES消費層,我們是可以動態指定消費線程數量的。當Kafka Lag堆積超過一定閾值(閾值可進行Group級調節和監控),會進行警報,並動態調整消費線程數。

在數據一致性方面,我們也做了大量工作,且我們只保證數據最終一致性。當數據寫入HBase成功之後,我們會對寫Kafka和寫ES進行鏈路追蹤,任何一個環節一旦寫入失敗,即將Failed Key寫入黑名單(Redis存儲)。

對於進入黑名單的數據,我們會起定時調度線程去掃描這些Key並進行自動回補索引。回補方式是:到HBase中拿最新的數據再次寫入隊列中去。如果此時又失敗,我們會把這些Key放入終極死亡名單(Redis存儲),並通過定時調度線程去掃描這個死亡名單,如果有屍體,則報警,此時人力介入。

這種分層處理方式,也是借鑑了些許HBase LSM的思想,勿噴勿噴~

我簡單畫了一下這個流程,方便大家理解,見下圖:

數據流程圖

5. 平臺監控模塊介紹

該模塊不再細說了,主要是Hadoop集羣、HBase集羣的監控,外加K8S平臺監控。K8S監控平臺主要基於Prometheus+Grafana+Fluent實現。

6. 離線數據分析模塊介紹

該模塊依賴於HBase Replication集羣間複製功能實現。數據在同步至離線HBase集羣之後,主要用於對接數據倉庫、Spark讀寫分析、大範圍掃描操作等等。主要是減小面向分析型作業對線上實時平臺的影響。

六大模塊就簡單介紹到這裏。

四。心得

總的感受:使用ES賦能HBase感覺很融洽,ES很棒,ES+HBase真的可以媲美SQL了。

好像ES天生跟HBase是一家人,HBase支持動態列,ES也支持動態列,這使得兩者結合在一起很融洽。

而ES強大的索引功能正好是HBase所不具備的,如果只是將業務索引字段存入ES中,體量其實並不大;甚至很多情況下,業務索引字段60%以上都是Term類型,根本不需要分詞。雖然我們還是支持了分詞,比如多標籤索引就會用到。

很多設計者可能會覺得HBase + Kafka + ES三者結合在一起有點太重了,運維成本很高,有點望而卻步。但轉換角度想一下,我們不就是搞技術的嘛,這下子可以三個成熟產品一起學了!現在看來,收穫還是大於付出的。

至於ES和Solr選擇誰去做二級索引的問題,我覺得差別不大,根據自家公司的現狀做選擇就好了。

最後,還是要爲ElasticSearch點個贊!不錯的產品!



有什麼想法你就說

👆 👆 👆


往期推薦

HBase二次開發之搭建HBase調試環境,如何遠程debug HBase源代碼

【生活現場】從洗襪子到HBase存儲原理解析

HBase的ACL說明

HBase配置AES加密

HBase原理(一):架構理解

如何將Hive與HBase整合聯用

Python生成HBase 10w+ 條數據說明

HBase應用(一):數據批量導入說明

HBase 集成 Phoenix 構建二級索引實踐

HBase漫談 | HBase分區過多影響&合理分區數量

HBase 性能調優第一彈:內存篇


掃一掃,我們的故事就開始了。

如果這篇文章對你有所啓發,點贊、轉發都是一種支持!

另外公衆號改變了推送規則,大家看文章不要忘記點擊最下方的在看,點贊按鈕,這樣微信自動識別爲常看公衆號,否則很可能推送的文章可能淹沒在別的文章找不到,謝謝大家

讓我知道你在看

本文分享自微信公衆號 - 大數據實戰演練(gh_f942bfc92d26)。
如有侵權,請聯繫 [email protected] 刪除。
本文參與“OSC源創計劃”,歡迎正在閱讀的你也加入,一起分享。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章