1.1、storm是什麼
storm是twitter公司開源貢獻給apache的一款實時流式處理的一個開源軟件,主要用於解決數據的實時計算以及實時的處理等方面的問題
1.2、storm的特點
Storm是一個開源的分佈式實時計算系統,可以簡單、可靠的處理大量的數據流。Storm有很多使用場景:如實時分析,在線機器學習,持續計算,分佈式RPC,ETL等等。Storm支持水平擴展,具有高容錯性,保證每個消息都會得到處理,而且處理速度很快(在一個小集羣中,每個結點每秒可以處理數以百萬計的消息)。Storm的部署和運維都很便捷,而且更爲重要的是可以使用任意編程語言來開發應用。
Storm有如下特點:
- 編程模型簡單
在大數據處理方面相信大家對hadoop已經耳熟能詳,基於Google Map/Reduce來實現的Hadoop爲開發者提供了map、reduce原語,使並行批處理程序變得非常地簡單和優美。同樣,Storm也爲大數據的實時計算提供了一些簡單優美的原語,這大大降低了開發並行實時處理的任務的複雜性,幫助你快速、高效的開發應用。
- 可擴展
在Storm集羣中真正運行topology的主要有三個實體:工作進程、線程和任務。Storm集羣中的每臺機器上都可以運行多個工作進程,每個工作進程又可創建多個線程,每個線程可以執行多個任務,任務是真正進行數據處理的實體,我們開發的spout、bolt就是作爲一個或者多個任務的方式執行的。
因此,計算任務在多個線程、進程和服務器之間並行進行,支持靈活的水平擴展。
- 高可靠性
Storm可以保證spout發出的每條消息都能被“完全處理”,這也是直接區別於其他實時系統的地方,如S4。
請注意,spout發出的消息後續可能會觸發產生成千上萬條消息,可以形象的理解爲一棵消息樹,其中spout發出的消息爲樹根,Storm會跟蹤這棵消息樹的處理情況,只有當這棵消息樹中的所有消息都被處理了,Storm纔會認爲spout發出的這個消息已經被“完全處理”。如果這棵消息樹中的任何一個消息處理失敗了,或者整棵消息樹在限定的時間內沒有“完全處理”,那麼spout發出的消息就會重發。
考慮到儘可能減少對內存的消耗,Storm並不會跟蹤消息樹中的每個消息,而是採用了一些特殊的策略,它把消息樹當作一個整體來跟蹤,對消息樹中所有消息的唯一id進行異或計算,通過是否爲零來判定spout發出的消息是否被“完全處理”,這極大的節約了內存和簡化了判定邏輯,後面會對這種機制進行詳細介紹。
這種模式,每發送一個消息,都會同步發送一個ack/fail,對於網絡的帶寬會有一定的消耗,如果對於可靠性要求不高,可通過使用不同的emit接口關閉該模式。
上面所說的,Storm保證了每個消息至少被處理一次,但是對於有些計算場合,會嚴格要求每個消息只被處理一次,幸而Storm的0.7.0引入了事務性拓撲,解決了這個問題,後面會有詳述。
- 高容錯性
如果在消息處理過程中出了一些異常,Storm會重新安排這個出問題的處理單元。Storm保證一個處理單元永遠運行(除非你顯式殺掉這個處理單元)。
當然,如果處理單元中存儲了中間狀態,那麼當處理單元重新被Storm啓動的時候,需要應用自己處理中間狀態的恢復。
- 支持多種編程語言
除了用java實現spout和bolt,你還可以使用任何你熟悉的編程語言來完成這項工作,這一切得益於Storm所謂的多語言協議。多語言協議是Storm內部的一種特殊協議,允許spout或者bolt使用標準輸入和標準輸出來進行消息傳遞,傳遞的消息爲單行文本或者是json編碼的多行。
Storm支持多語言編程主要是通過ShellBolt, ShellSpout和ShellProcess這些類來實現的,這些類都實現了IBolt 和 ISpout接口,以及讓shell通過java的ProcessBuilder類來執行腳本或者程序的協議。
可以看到,採用這種方式,每個tuple在處理的時候都需要進行json的編解碼,因此在吞吐量上會有較大影響。
- 支持本地模式
Storm有一種“本地模式”,也就是在進程中模擬一個Storm集羣的所有功能,以本地模式運行topology跟在集羣上運行topology類似,這對於我們開發和測試來說非常有用。
- 高效
2、storm的架構模型
- Nimbus:負責資源分配和任務調度。新版本中的nimbus節點可以有多個,做主備
- Supervisor:負責接受nimbus分配的任務,啓動和停止屬於自己管理的worker進程。
- Worker:運行具體處理組件邏輯的進程。
- Task:worker中每一個spout/bolt的線程稱爲一個task. 在storm0.8之後,task不再與物理線程對應,同一個spout/bolt的task可能會共享一個物理線程,該線程稱爲executor。最新版本的Jstorm已經廢除了task的概念
3 storm的編程模型
DataSource:外部數據源
Spout:接受外部數據源的組件,將外部數據源轉化成Storm內部的數據,以Tuple爲基本的傳輸單元下發給Bolt
Bolt:接受Spout發送的數據,或上游的bolt的發送的數據。根據業務邏輯進行處理。發送給下一個Bolt或者是存儲到某種介質上。介質可以是mongodb或mysql,或者其他。
Tuple:Storm內部中數據傳輸的基本單元,裏面封裝了一個List對象,用來保存數據。
4 storm的入門程序
實現單次計數的統計
1 pom文件
<?xml version="1.0" encoding="UTF-8"?> <artifactId>storm</artifactId> <dependencies> <build> </project> |
TopologyMain.java
package com.felix.wordcount; import org.apache.storm.Config; import java.util.Map; public class TopologyMain { public static void main(String[] args) throws InvalidTopologyException, AuthorizationException, AlreadyAliveException { //將我們的spout與bolt組織起來成爲一個topology提交運行 builder.setSpout("RandomSpout",new RandomSpout()); builder.setBolt("SplitBolt",new SplitBolt()).shuffleGrouping("RandomSpout"); builder.setBolt("CountBolt",new CountBolt()).shuffleGrouping("SplitBolt"); StormTopology topology = builder.createTopology(); }else{ } }
|
RandomSpout.java
package com.felix.wordcount; import org.apache.storm.spout.SpoutOutputCollector; import java.util.Map; /** /** /** int i = random.nextInt(arrays.length); Values values = new Values(line); //往下游發送
/** Fields fields = new Fields("hello");//相當於給數據加一個標籤 } } |
SplitBolt.java
package com.felix.wordcount; import org.apache.storm.topology.BasicOutputCollector; /**
Object o = tuple.getValueByField("hello");//根據標籤獲取上游傳過來的值 Values values = new Values(word, 1); collector.emit(values); } } @Override |
CountBolt.java
package com.felix.wordcount; import org.apache.storm.task.TopologyContext; import java.util.Map; public class CountBolt extends BaseBasicBolt { private static ConcurrentHashMap<String,Integer> map ;
map = new ConcurrentHashMap<>(); } @Override String word = input.getValueByField("word").toString(); if(map.containsKey(word)){ }else{ //打印map } @Override } |