企業該如何做大數據的分析挖掘?這裏有一份參考指南 原

現如今已經進入大數據時代,各種系統、應用、活動所產生的數據浩如煙海,數據不再僅僅是企業存儲的信息,而是成爲可以從中獲取巨大商業價值的企業戰略資產。這樣背景下,如何存儲海量複雜的數據、從紛繁錯綜的數據中找到真正有價值的數據,是大數據時代企業面臨的難題。

8月18日的“UCan下午茶”杭州站,來自UCloud、網易、華爲的五位技術專家,從數據庫高可用容災方案設計和實現、新一代公有云分佈式數據庫、基於Impala平臺打造交互查詢系統等不同維度出發,分享了他們在大數據查詢、分析、存儲開發過程中遇到的“困惑”與解決方案。

UCloud丁順:數據庫高可用容災方案設計和實現

高可用容災是搭建數據庫服務的一個重要考量特性,搭建高可用數據庫服務需要解決諸多問題,保證最終的容災效果。UCloud雲數據庫產品UDB在研發演進過程中,根據用戶的需要不斷完善和演進,形成了一套完善的高可用架構體系。

UCloud資深存儲研發工程師丁順從高可用數據庫概述、典型的高可用架構分析以及高可用數據庫自動化運維等角度,講述瞭如何設計和運營一套完善的數據庫高可用架構,保證在出現異常時能夠及時恢復數據庫服務。

業界典型的高可用架構可以劃分爲四種:第一種,共享存儲方案;第二種,操作系統實時數據塊複製;第三種,數據庫級別的主從複製;第三,高可用數據庫集羣。每種數據同步方式可以衍生出不同的架構。

第一種,共享存儲。共享存儲是指若干DB服務使用同一份存儲,一個主DB,其他的爲備用DB,若主服務崩潰,則系統啓動備用DB,成爲新的主DB,繼續提供服務。共享存儲方案的優點是沒有數據同步的問題,缺點是對網絡性能要求比較高。 第二種,操作系統實時數據塊複製。這種方案的典型場景是DRBD。如下圖所示,左邊數據庫寫入數據以後立即同步到右邊的存儲設備當中。如果左邊數據庫崩潰,系統直接將右邊的數據庫存儲設備激活,完成數據庫的容災切換。這個方案同樣有一些問題,如系統只能有一個數據副本提供服務,無法實現讀寫分離;另外,系統崩潰後需要的容災恢復時間較長。

第三種,數據庫主從複製。這種方案是較經典的數據同步模式,系統採用一個主庫和多個從庫,主庫同步數據庫日誌到各個從庫,從庫各自回放日誌。它的好處是一個主庫可以連接多個從庫,能很方便地實現讀寫分離,同時,因爲每個備庫都在啓動當中,所以備庫當中的數據基本上都是熱數據,容災切換也非常快。 第四種,數據庫高可用集羣。前面三種是通過複製日誌的模式實現高可用,第四種方案是基於一致性算法來做數據同步。數據庫提供一種多節點的一致性同步機制,然後利用該機制構建多節點同步集羣,這是業界近年來比較流行的高可用集羣的方案。 UCloud綜合了原生MySQL兼容、不同版本、不同應用場景的覆蓋等多種因素,最終選擇採用基於數據庫主從複製的方式實現高可用架構,並在原架構基礎上,使用雙主架構、半同步複製、採用GTID等措施進行系列優化,保證數據一致性的同時,實現日誌的自動尋址。

自動化運維是高可用數據庫當中的難點,UDB在日常例行巡檢之外,也會定期做容災演練,查看在不同場景下數據是否丟失、是否保持一致性等,同時設置記錄日誌、告警系統等等,以便於第一時間發現問題,並追溯問題的根源,找出最佳解決方案。

UCloud劉堅君:新一代公有云分佈式數據庫UCloud Exodus

公有云2.0時代,雲數據庫新產品不斷涌現。諸如AWS Aurora、阿里雲PolarDB等,UCloud在採用最新軟硬件和分佈式技術改造傳統數據庫的工作中,也在思考除了分佈式數據庫所要求的更大和更快之外,是否還有其他更重要的用戶價值?UCloud資深數據庫研發工程師劉堅君,現場講解了UCloud對於新一代公有云分佈式數據庫的思考與設計。

劉堅君首先從1.0時代存在的問題入手,他認爲1.0時代雲數據庫帶來了三方面價值:彈性、故障救援、知識複用。但它同樣面臨三大難以解決的問題:容量和性能、租用成本、運營成本。

到2.0時代,解決上述三個問題的思路是計算和讀寫分離。通過計算和讀寫分離,將傳統數據庫的計算層和存儲層拆開,各自獨立擴展和演進。這樣做的好處是:1.提供更大的容量和讀寫性能;2.按需擴容和付費;3.優化運營成本並降低運營風險。業界已推出的2.0雲數據庫(如Aurora、PolarDB等),均採用計算和存儲分離的架構。

UCloud Exodus的產品和技術理念則更進一步:計算和存儲分離後,存儲層將完全複用雲平臺的高性能分佈式存儲(如UCloud UDisk、阿里雲盤古等),而Exodus則專注於構建一款數據庫內核,去適配主流公有云和私有云廠商發佈的高性能分佈式存儲產品。Exodus的這種產品架構,稱之爲Shared-ALL-DISK架構。

Shared-ALL-DISK架構的優點明顯,在提供雲數據庫2.0創新功能的同時,賦予用戶業務自由遷徙的能力,不被某個雲平臺綁架,同時能夠連接上下游的軟硬件廠商,共建Exodus數據庫生態。

更爲重要的是,Exodus將最終將開源, UCloud會將核心系統的每一行源碼開放,賦予用戶深入瞭解和優化Exodus的能力。並建設開源社區,吸收全行業的優化成果,共同改進和完善Exodus。

網易蔣鴻翔:基於Impala平臺打造交互查詢系統

在數據分析當中,因爲數據基數龐大、關係模型複雜、響應時間要求高等特性,數據之間的交互查詢就顯得尤爲重要。來自網易的大數據技術專家蔣鴻翔現場從交互式查詢特點着手,深入淺出講解了Impala架構、原理,以及網易對Impala的改進思路和使用場景。

Impala是Cloudera公司主導開發的新型查詢系統,它提供SQL語義,能查詢存儲在Hadoop的HDFS和HBase中的PB級大數據。已有的Hive系統雖然也提供了SQL語義,但由於Hive底層執行使用的是MapReduce引擎,仍然是一個批處理過程,難以滿足查詢的交互性。相比之下,Impala能夠很快速的實現數據查詢。下圖是一個Impala的架構圖。

Impala擁有元數據緩存、MPP並行計算、支持LLVM與JIT以及支持HDFS本地讀、算子下推等特性。但它也有一些缺陷,如服務單點、Web信息無法持久化、資源隔離並不精確、負載均衡需要外部支持等。

網易針對上述不足之處,在原有的Impala查詢系統下,進行了系列改進優化:

基於ZK的Loadbalance。原始的Impala負載均衡需要外部支持,爲此網易基於ZK做了一個Loadbalance方案; 管理服務器。主要爲了解決當某一個節點掛掉時數據丟失的問題,管理服務器會將所有的狀態信息蒐集進來,後續如果做分析都可以通過關聯的服務器查詢; 細粒度權限和代理; Json格式; 兼容Ranger權限管理; 批量元數據刷新; 元數據同步; 元數據過濾; 對接ElasticSearch查詢。 據蔣鴻翔介紹,改造後的交互查詢系統,已經成功應用於網易數據科學中心的一站式大數據平臺自助查詢系統上。同時,數據分析中心的一站式報表系統底層,也搭載在Impala上。相信未來,基於Impala的查詢系統將會應用於更多不同的場景。

UCloud王僕:UCloud分佈式KV存儲系統

分佈式KV存儲系統在互聯網公司中扮演着重要角色,各類上層業務對於KV存儲系統的高可用性、可擴展性和數據一致性都有着很高的要求。UCloud存儲部門在迭代升級分佈式Redis架構的同時,也一直致力於研發基於硬盤存儲的大容量分佈式KV系統。來自UCloud的技術專家王僕,着重介紹了UCloud在大容量分佈式KV系統設計方面的經驗,以及應對線上業務高性能、高容量要求的系統架構設計思路。

下圖爲UCloud分佈式KV存儲系統架構,底層爲多個Storage,每一個Storage有三個節點,這三個節點需要放在不同的物理機上,防止一臺機器宕機後系統不可用;標紅框的屬於Master節點,Master節點通過日誌同步的方式,同步到層節點,整個數據的請求從Proxy進入。

整個系統是有中心節點的系統,路由管理由Master來管理,Master通過每個機器上的Host管理Storage節點,由Zookeeper確定誰是主誰是從,因此,一些管理方面的請求都是直接連接到Master上的,包括創建、刪除和控制檯方面的功能等。

在測試過程中也發現了一些性能方面的問題,如採用的部分Raft協議是單Raft,設計之初並沒有實現並行Raft功能,因此數據同步較慢;其次,請求是通過代理的方式實現,代理的延遲會比直接訪問的延遲更高,後期,會考慮提供一些客戶端的SDK,讓請求可以跳過代理,減少一次網絡交互。

在KV系統的後續優化上,王僕介紹到,爲了能夠將存儲系統應用於更多不同的業務場景,未來會考慮更高的通用性,適配多種的存儲引擎;另外,因爲Redis比較流行,系統設計之初主要是支持Redis,但是業界還有一些其他協議,這時候需要特殊的轉化流程,未來希望做成一個支持各種協議的通用結構化存儲系統,適配其他不同協議。

華爲時金魁:實時流計算技術及其應用

隨着Flink/Spark Streaming的大受歡迎,實時流計算開始爲人熟知,進入大衆視野。流計算在物聯網行業、車聯網、智慧城市等行業快速落地,亦創造出越來越多的價值。來自華爲的架構師時金魁,現場分享了實時流計算的一些技術方案和落地應用。

在傳統的數據處理流程中,總是先收集數據,然後將數據放到DB中。當人們需要的時候通過DB對數據做query,得到答案或進行相關的處理。這個流程看起來雖然合理,但是結果卻非常的緊湊,尤其是對於一些實時搜索應用環境中的某些具體問題,類似於MapReduce方式的離線處理並不能很好地解決問題。這就引出了一種新的數據計算結構—流計算方式。它可以很好地對大規模流動數據在不斷變化的運動過程中實時地進行分析,捕捉到可能有用的信息,並把結果發送到下一計算節點。

目前,業界開源的流計算框架很多,最早有Storm、Heron,後來還有Akka,Beam,以及現在的Kafka等等。在諸多的開源框架中,時金魁認爲,Flink是最恰當的流計算框架,Spark Streaming則是最有潛力的流計算框架,但這兩個框架在落地應用中都有各自的優缺點。

華爲根據Flink與Spark框架各自的特點,摒棄其劣勢,設計開發出一款全新的實時流計算服務Cloud Stream Service(簡稱CS)。CS採用Apache Flink的Dataflow模型,實現完全的實時計算,同時,採用在線SQL編輯平臺編寫Stream SQL,定義數據流入、數據處理、數據流出,用戶無需關心計算集羣, 無需學習編程技能,降低流數據分析門檻。下圖爲華爲的實時流計算服務概覽圖。

據介紹,CS聚焦於互聯網和物聯網場景,適用於實時性要求高、吞吐量大的業務場景。主要應用在互聯網行業中小企業、物聯網、車聯網、金融反欺詐等多種行業應用場景,如互聯網汽車、日誌在線分析、在線機器學習、在線圖計算、在線推薦算法應用等。

總結

雖然說開源軟件因爲其強大的成本優勢而擁有極其強大的力量,數據庫、雲計算廠商仍會嘗試推出性能、穩定性、維護服務等指標上更加強大的產品與之進行差異化競爭,並同時參與開源社區,借力開源軟件來豐富自己的產品線、提升自己的競爭力,並通過更多的高附加值服務來滿足部分消費者需求。

總的來看,未來的大數據分析技術、存儲將會變得越來越成熟、越來越便宜、越來越易用,相應的,用戶將會更容易、更方便地從自己的大數據中挖掘出有價值的商業信息。

想要獲取更多技術和活動資訊,可關注 “UCloud技術公告牌”;或搜索微信ID:ucloud_tech進行關注。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章