大數據的五大核心技術,給大數據同行入門研究參考的小知識

21世紀,世界已經進入數據大爆炸的時代,大數據時代已經來臨。從商業公司內部的各種管理和運營數據,到個人移動終端與消

費電子產品的社會化數據,再到互聯網產生的海量信息數據等,每天世界上產生的信息量正在飛速增長。2009年數據信息量達到

8 000億GB,而到2011年達到1.8 ZB。圖靈獎獲得者Jim Gray提出的“新摩爾定律”:“每18個月全球新增信息量是計算機有史以來

全部信息量的總和”,已經得到驗證。

 

大數據的“大”不僅僅體現在數據的海量性,還在於其數據類型的複雜性。隨着報表、賬單、影像、辦公文檔等在商業公司中得到

普遍使用,互聯網上視頻、音樂、網絡遊戲不斷髮展,越來越多的非結構化數據進一步推動數字宇宙爆炸。數據海量而複雜,這

是對大數據的詮釋。與傳統的數據相比,大數據具有規模性(Volume)、多樣性(Variety)、高速性(Velocity)和低價值密度(Value)的

4V特點。規模性和高速性是數據處理一直以來研究和探討的問題,多樣性和價值密度低是當前數據處理發展中不斷顯現出來的問

題,而且在可以預見的未來,隨着智慧城市、智慧地球等各種新設想的不斷成爲現實,上面的4中問題將會變得更加凸顯,而且

是不得不面對的問題。

 

大數據學習羣:716581014

 

  數據的產生經歷了被動、主動和自動3個階段。大數據的迅猛發展是信息時代數字設備計算能力和部署數量指數增長的必然

結果。解決大數據研究中的問題,必須要從大數據的產生背景進行研究。大數據的產生源於規模效應,這種規模效應給數據的存

儲、管理以及數據的分析帶來了極大的挑戰,數據管理方式上的變革正在醞釀和發生。大數據的規模效應要求其存儲、運算方案

也應當從規模效應上進行考慮。傳統的單純依靠單設備處理能力縱向發展的技術早已經不能滿足大數據存儲和處理需求。以

Google等爲代表的一些大的數據處理公司通過橫向的分佈式文件存儲、分佈式數據處理和分佈式的數據分析技術很好的解決了由

於數據爆炸所產生的各種問題。

 

 

  1 大數據關鍵技術

 

  1.1大數據系統的架構


大數據的五大核心技術,給大數據同行入門研究參考的小知識

大數據處理系統不管結構如何複雜,採用的技術千差萬別,但是總體上總可以分爲以下的幾個重要部分。

 

  從數據處理的一般流程可以看到,在大數據環境下需要的關鍵技術主要針對海量數據的存儲和海量數據的運算。傳統的關係

數據庫經過近40年的發展已經成爲了一門成熟同時仍在不斷演進的數據管理和分析技術,結構化查詢語言(SQL)作爲存取關係數

據庫的語言得到了標準化,其功能和表達能力也得到的不斷增強。但是,關係數據管理系統的擴展性在互聯網環境下遇到了前所

未有的障礙,不能勝任大數據分析的要求。關係數據管理模型追求的是高度的一致性和正確性。縱向擴展系統,通過增加或者更

換CPU、內存、硬盤以擴展單個節點的能力,終會遇到“瓶頸”。

 

  大數據的研究主要來源於依靠數據獲取商業利益的大公司。Google公司作爲全球最大的信息檢索公司,其走在了大數據研究

的前沿。面對呈現爆炸式增加的因特網信息,僅僅依靠提高服務器性能已經遠遠不能滿足業務的需求。如果將各種大數據應用比

作“汽車”,支撐起這些“汽車”運行的“高速公路”就是雲計算。正是雲計算技術在數據存儲、管理與分析等方面的支持,才使得大數

據有用武之地。Google公司從橫向進行擴展,通過採用廉價的計算機節點集羣,改寫軟件,使之能夠在集羣上並行執行,解決海

量數據的存儲和檢索功能。2006年Google首先提出雲計算的概念。支撐Google公司各種大數據應用的關鍵正是其自行研發的一

系列雲計算技術和工具。Google公司大數據處理的三大關鍵技術爲:Google文件系統GFS[4]、MapReduce[5]和Bigtable[6]。

Google的技術方案爲其他的公司提供了一個很好的參考方案,各大公司紛紛提出了自己的大數據處理平臺,採用的技術也都大同

小異。下面將從支持大數據系統所需要的分佈式文件系統、分佈式數據處理技術、分佈式數據庫系統和開源的大數據系統hadoop

等方面介紹大數據系統的關鍵技術。

 

  1.2 分佈式文件系統


大數據的五大核心技術,給大數據同行入門研究參考的小知識

  文件系統是支持大數據應用的基礎。Google是有史以來唯一需要處理如此海量數據的大公司。對於Google而言,現有的方

案已經難以滿足其如此大的數據量的存儲,爲此Google提出了一種分佈式的文件管理系統——GFS。

 

  GFS與傳統的分佈式文件系統有很多相同的目標,比如,性能、可伸縮性、可靠性以及可用性。但是,GFS的成功之處在於

其與傳統文件系統的不同。GFS的設計思路主要基於以下的假設:對於系統而言,組件失敗是一種常態而不是異常。GFS是構建

於大量廉價的服務器之上的可擴展的分佈式文件系統,採用主從結構。通過數據分塊、追加更新等方式實現了海量數據的高效存

儲,所示給出了GFS體系結構。但是隨着業務量的進一步變化,GFS逐漸無法適應需求。Google對GFS進行了設計,實現了

Colosuss系統,該系統能夠很好地解決GFS單點故障和海量小文件存儲的問題。

 

  除了Google的GFS,衆多的企業和學者也從不同的方面對滿足大數據存儲需求的文件系統進行了詳細的研究。微軟開發的

Cosmos支撐其搜索、廣告業務。HDFS、FastDFS、OpenAFS和CloudStore都是類似GFS的開源實現。類GFS的分佈式文件系

統主要針對大文件而設計,但是在圖片存儲等應用場景中,文件系統主要存儲海量小文件,Facebook爲此推出了專門針對海量小

文件的文件系統Haystack,通過多個邏輯文件共享同一個物理文件,增加緩存層、部分元數據加載到內存等方式有效地解決了海

量小文件存儲的問題。Lustre是一種大規模、安全可靠的,具備高可靠性的集羣文件系統,由SUN公司開發和維護。該項目主要

的目的就是開發下一代的集羣文件系統,可以支持超過10 000個節點,數以拍字節的數量存儲系統。


大數據的五大核心技術,給大數據同行入門研究參考的小知識

  1.3 分佈式數據處理系統

 

  大數據的處理模式分爲流處理和批處理兩種。流處理是直接處理,批處理採用先存儲再處理。

 

  流處理將數據視爲流,源源不斷的數據形成數據流。當新的數據到來即立即處理並返回所需的結果。大數據的實時處理是一

個極具挑戰性的工作,數據具有大規模、持續到達的特點。因此,如果要求實時的處理大數據,必然要求採用分佈式的方式,在

這種情況下,除了應該考慮分佈式系統的一致性問題,還將涉及到分佈式系統網絡時延的影響,這都增加了大數據流處理的複雜

性。目前比較有代表性的開源流處理系統主要有:Twitter的Storm、Yahoo的S4以及Linkedin的Kafka等。

 

  Google公司2004年提出的MapReduce編程模型是最具代表性的批處理模型。MapReduce架構的程序能夠在大量的普通配置

的計算機上實現並行化處理。這個系統在運行時只關心如何分割輸入數據,在大量計算機組成的集羣上的調度,集羣中計算機的

錯誤處理,管理集羣中的計算機之間必要的通信。

 

  對於有些計算,由於輸入數據量的巨大,想要在可接受的時間內完成運算,只有將這些計算分佈在成百上千的主機上。這種

計算模式對於如何處理並行計算、如何分發數據、如何處理錯誤需要大規模的代碼處理,使得原本簡單的運算變得難以處理。

MapReduce就是針對上述問題的一種新的設計模型。

 

  MapReduce模型的主要貢獻就是通過簡單的接口來實現自動的並行化和大規模的分佈式計算,通過使用MapReduce模型接口實現在大量普通的PC上的高性能計算。

 

  MapReduce編程模型的原理:利用一個輸入鍵-值(Key/Value)對集合來產生一個輸出的key/value對集合。MapReduce庫的

用戶用兩個函數表達這個計算:Map和Reduce。用戶自定義的Map函數接受一個輸入的key/value值,然後產生一箇中間

key/value對集合。MapReduce庫把所有具有相同中間key值的value值集合在一起傳遞給Reduce函數。用戶自定義的Reduce函

數接收一箇中間key的值和相關的一個value值的集合。Reduce函數合併這些value值,形成一個較小的value值集合

 

  MapReduce的提出曾經遭到過一系列的指責和詬病。數據專家Stonebraker就認爲MapReduce是一個巨大的倒退,指出其存

取沒有優化、依靠蠻力進行數據處理等問題。但是隨着MapReduce在應用上的不斷成功,以其爲代表的大數據處理技術還是得到

了廣泛的關注。研究人員也針對MapReduce進行了深入的研究,目前針對MapReduce性能提升研究主要有以下幾個方面:多核

硬件與GPU上的性能提高;索引技術與連接技術的優化;調度技術優化等。在MapReduce的易用性的研究上,研究人員正在研究更

爲高層的、表達能力更強的語言和系統,包括Yahoo的Pig、Microsoft的LINQ、Hive等。

 

  除了Google的MapReduce,Yunhong Gu等人設計實現了Sector and Sphere雲計算平臺[18],包括Sector和Sphere兩部分。

Sector是部署在廣域網的分佈式系統,Sphere是建立在Sector上的計算服務。Sphere是以Sector爲基礎構建的計算雲,提供大規

模數據的分佈式處理。Sphere的基本數據處理模型如圖4所示。

 

  針對不同的應用會有不同的數據,Sphere統一地將它們以數據流的形式輸入。爲了便於大規模地並行計算,首先需要對數據

進行分割,分割後的數據交給SPE執行。SPE是Sphere處理引擎,是Sphere的基本運算單元。除了進行數據處理外SPE還能起

到負載平衡的作用,因爲一般情況下數據量遠大於SPE數量,當前負載較重的SPE能繼續處理的數據就較少,反之則較多,如此

就實現了系統的負載平衡。


大數據的五大核心技術,給大數據同行入門研究參考的小知識

  1.4 分佈式數據庫系統

 

  傳統的關係模型分佈式數據庫難以適應大數據時代的要求,主要的原因有以下幾點:

 

  (1)規模效應帶來的壓力。大數據時代的數據遠遠超出單機處理能力,分佈式技術是必然的選擇。傳統的數據庫傾向於採用縱

向擴展的方式,這種方式下性能的增加遠低於數據的增加速度。大數據採用數據庫系統應該是橫向發展的,這種方式具有更好的

擴展性。

 

  (2)數據類型的多樣性和低價值密度性。傳統的數據庫適合結構清晰,有明確應用目的的數據,數據的價值密度相對較高。在

大數據時代數據的存在的形式是多樣的,各種半結構化、非結構化的數據是大數據的重要組成部分。如何利用如此多樣、海量的

低價值密度的數據是大數據時代數據庫面臨的重要挑戰之一。

 

  (3)設計理念的衝突。關係數據庫追求的是“一種尺寸適用所有”,但在大數據時代不同的應用領域在數據理性、數據處理方式

以及數據處理時間的要求上千差萬別。實際處理中,不可能存在一種統一的數據存儲方式適應所有場景。

 

  面對這些挑戰,Google公司提出了Bigtable的解決方案。Bigtable的設計目的是可靠的處理拍字節級別的數據,並且能夠部

署到千臺機器上。Bigtable已經實現了以下幾個目標:適用性廣泛、可擴展、高性能和高可靠性。Bigtable已經在超過60個

Google的產品和項目上得到了應用。這些產品在性能要求和集羣的配置上都提出了迥異的需求,Bigtable都能夠很好地滿足。

Bigtable不支持完整的關係數據模型,爲用戶提供了簡單的數據模型,利用這個模型,客戶可以動態控制數據的分佈和格式。用

戶也可以自己推測底層存儲數據的位置相關性。數據的下標是行和列的名字,名字可以是任意的字符串。Bigtable將存儲的數據

都視字符串,但是Bigtable本身不去解釋這些字符串,客戶程序通常會把各種結構化或者半結構化的數據串行化到這些字符串。

通過仔細選擇數據的模式,客戶可以控制數據的位置的相關性。最後,可以通過Bigtable的模式參數來控制數據是存放在內存

中、還是硬盤上。Bigtable數據模型如圖5所示,給出了Bigtable存儲大量網頁信息的實例。

 

  除了Google公司爲人熟知的Bigtable,其他的大型Internet內容提供商也紛紛提出大數據系統。具有代表性的系統有Amazon

的Dynamo[19]和Yahoo的PNUTS[20]。Dynamo綜合使用了鍵/值存儲、改進的分佈式哈希表(DHT)、向量時鐘等技術實現了一個

完全的分佈式、去中性化的高可用系統。PNUTS是一個分佈式的數據庫系統,在設計上使用弱一致性來達到高可用性的目標,主

要的服務對象是相對較小的記錄,比如在線的大量單個記錄或者小範圍記錄集合的讀和寫訪問,不適合存儲大文件、流媒體。

 

  Bigtable、Dynamo、PNUTS等技術的成功促使研究人員開始對關係數據庫進行反思,產生了一批爲採用關係模型的數據

庫,這些方案通稱爲:NoSQL(not only SQL)。NoSQL數據庫具有以下的特徵:模式只有、支持簡易備份、簡單的應用程序接

口、一致性、支持海量數據。目前典型的非關係型數據庫主要有以下集中類別。


大數據的五大核心技術,給大數據同行入門研究參考的小知識

  1.5 大數據系統的開源實現平臺

 

 

  Hadoop

 

  除了商業化的大數據處理方案,還有一些開源的項目也在積極的加入到大數據的研究當中。Hadoop[22]是一個開源分佈式計

算平臺,它是MapReduce計算機模型的載體。藉助於Hadoop,軟件開發者可以輕鬆地編出分佈式並行程序,從而在計算機集羣

上完成海量數據的計算。Intel公司給出了一種Hadoop的開源實現方案,如圖6所示。

 

  在該系統中HDFS是與GFS類似的分佈式文件系統,它可以構建從幾臺到幾千臺常規服務器組成的集羣,並提供高聚合輸入

輸出的文件讀寫訪問。HBase[23]是與Bigtable類似的分佈式、按列存儲的、多維表結構的實時分佈式數據庫。可以提供大數據量

結構化和非結構化數據的高度讀寫操作。Hive[24]是基於Hadoop的大數據分佈式數據倉庫引擎。它可以將數據存放在分佈式文件

系統或分佈式數據庫中,並使用SQL語言進行海量信息的統計、查詢和分析操作。ZooKeeper[25]是針對大型分佈式系統的可靠

協調系統,提供的功能包括:配置維護、名字服務、分佈式同步、組服務等。它可以維護系統配置、羣組用戶和命名等信息。

Sqoop[26]提供高效在Hadoop和結構化數據源之間雙向傳送數據的連接器組件。它將數據傳輸任務轉換爲分佈式Map任務實現,

在傳輸過程中還可以實現數據轉換等功能。Flume[27]是分佈式、高可靠的和高可用的日誌採集系統,它用來從不同源的系統中

採集、彙總和搬移大量日誌數據到一個集中式的數據存儲中。

 

 

 

  主要結合大數據的產生背景、需求和系統結構,介紹了當前全球在大數據技術方面的進展情況。從分析可以看到,大數據系

統的解決方案必將落地於現有的雲計算平臺。雲計算平臺的分佈式文件系統、分佈式運算模式和分佈式數據庫管理技術都爲解決

大數據問題提供了思路和現成的平臺。

 

  通過分析也可以看到,大數據的問題的研究,必然是以商業利益爲驅動,一些大的依靠數據牟利的大公司必然會是大數據應

用的主體,大數據一定會成爲重點研究領域。

 

  總的來說,目前對於大數據的研究仍處於一個非常初步的階段,還有很多問題需要解決,有興趣的朋友,可以關注我們的多

智時代,及時查閱人工智能和大數據的小知識。

 

 

大數據學習羣:716581014

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章