kafka--如何選擇Kafka的分區數和消費者個數

轉載自:http://www.cnblogs.com/likehua/p/3999538.html

Kafka的分區數是不是越多越好?
分區多的優點
kafka使用分區將topic的消息打散到多個分區分佈保存在不同的broker上,實現了producer和consumer消息處理的高吞吐量。Kafka的producer和consumer都可以多線程地並行操作,而每個線程處理的是一個分區的數據。因此分區實際上是調優Kafka並行度的最小單元。對於producer而言,它實際上是用多個線程併發地向不同分區所在的broker發起Socket連接同時給這些分區發送消息;而consumer,同一個消費組內的所有consumer線程都被指定topic的某一個分區進行消費。

所以說,如果一個topic分區越多,理論上整個集羣所能達到的吞吐量就越大。

分區不是越多越好
分區是否越多越好呢?顯然也不是,因爲每個分區都有自己的開銷:

一、客戶端/服務器端需要使用的內存就越多
Kafka0.8.2之後,在客戶端producer有個參數batch.size,默認是16KB。它會爲每個分區緩存消息,一旦滿了就打包將消息批量發出。看上去這是個能夠提升性能的設計。不過很顯然,因爲這個參數是分區級別的,如果分區數越多,這部分緩存所需的內存佔用也會更多。假設你有10000個分區,按照默認設置,這部分緩存需要佔用約157MB的內存。而consumer端呢?我們拋開獲取數據所需的內存不說,只說線程的開銷。如果還是假設有10000個分區,同時consumer線程數要匹配分區數(大部分情況下是最佳的消費吞吐量配置)的話,那麼在consumer client就要創建10000個線程,也需要創建大約10000個Socket去獲取分區數據。這裏面的線程切換的開銷本身已經不容小覷了。
    服務器端的開銷也不小,如果閱讀Kafka源碼的話可以發現,服務器端的很多組件都在內存中維護了分區級別的緩存,比如controller,FetcherManager等,因此分區數越多,這種緩存的成本就越大。
二、文件句柄的開銷
每個分區在底層文件系統都有屬於自己的一個目錄。該目錄下通常會有兩個文件: base_offset.log和base_offset.index。Kafak的controller和ReplicaManager會爲每個broker都保存這兩個文件句柄(file handler)。很明顯,如果分區數越多,所需要保持打開狀態的文件句柄數也就越多,最終可能會突破你的ulimit -n的限制。
三、降低高可用性
Kafka通過副本(replica)機制來保證高可用。具體做法就是爲每個分區保存若干個副本(replica_factor指定副本數)。每個副本保存在不同的broker上。期中的一個副本充當leader 副本,負責處理producer和consumer請求。其他副本充當follower角色,由Kafka controller負責保證與leader的同步。如果leader所在的broker掛掉了,contorller會檢測到然後在zookeeper的幫助下重選出新的leader——這中間會有短暫的不可用時間窗口,雖然大部分情況下可能只是幾毫秒級別。但如果你有10000個分區,10個broker,也就是說平均每個broker上有1000個分區。此時這個broker掛掉了,那麼zookeeper和controller需要立即對這1000個分區進行leader選舉。比起很少的分區leader選舉而言,這必然要花更長的時間,並且通常不是線性累加的。如果這個broker還同時是controller情況就更糟了。
如何確定分區數量呢?  
可以遵循一定的步驟來嘗試確定分區數:創建一個只有1個分區的topic,然後測試這個topic的producer吞吐量和consumer吞吐量。假設它們的值分別是Tp和Tc,單位可以是MB/s。然後假設總的目標吞吐量是Tt,那麼分區數 =  Tt / max(Tp, Tc)

說明:Tp表示producer的吞吐量。測試producer通常是很容易的,因爲它的邏輯非常簡單,就是直接發送消息到Kafka就好了。Tc表示consumer的吞吐量。測試Tc通常與應用的關係更大, 因爲Tc的值取決於你拿到消息之後執行什麼操作,因此Tc的測試通常也要麻煩一些。
一條消息如何知道要被髮送到哪個分區?
按照key值分配
默認情況下,Kafka根據傳遞消息的key來進行分區的分配,即hash(key) % numPartitions:

def partition(key: Any, numPartitions: Int): Int = {
    Utils.abs(key.hashCode) % numPartitions
}
這保證了相同key的消息一定會被路由到相同的分區。

key爲null時,從緩存中取分區id或者隨機取一個
如果你沒有指定key,那麼Kafka是如何確定這條消息去往哪個分區的呢?

if(key == null) {  // 如果沒有指定key
    val id = sendPartitionPerTopicCache.get(topic)  // 先看看Kafka有沒有緩存的現成的分區Id
    id match {
      case Some(partitionId) =>  
        partitionId  // 如果有的話直接使用這個分區Id就好了
      case None => // 如果沒有的話,
        val availablePartitions = topicPartitionList.filter(_.leaderBrokerIdOpt.isDefined)  //找出所有可用分區的leader所在的broker
        if (availablePartitions.isEmpty)
          throw new LeaderNotAvailableException("No leader for any partition in topic " + topic)
        val index = Utils.abs(Random.nextInt) % availablePartitions.size  // 從中隨機挑一個
        val partitionId = availablePartitions(index).partitionId
        sendPartitionPerTopicCache.put(topic, partitionId) // 更新緩存以備下一次直接使用
        partitionId
    }
}

不指定key時,Kafka幾乎就是隨機找一個分區發送無key的消息,然後把這個分區號加入到緩存中以備後面直接使用——當然了,Kafka本身也會清空該緩存(默認每10分鐘或每次請求topic元數據時)。

Consumer個數與分區數有什麼關係?
topic下的一個分區只能被同一個consumer group下的一個consumer線程來消費,但反之並不成立,即一個consumer線程可以消費多個分區的數據,比如Kafka提供的ConsoleConsumer,默認就只是一個線程來消費所有分區的數據。

所以,如果你的分區數是N,那麼最好線程數也保持爲N,這樣通常能夠達到最大的吞吐量。超過N的配置只是浪費系統資源,因爲多出的線程不會被分配到任何分區。
Consumer消費Partition的分配策略
Kafka提供的兩種分配策略: range和roundrobin,由參數partition.assignment.strategy指定,默認是range策略。


當以下事件發生時,Kafka 將會進行一次分區分配:

同一個 Consumer Group 內新增消費者
消費者離開當前所屬的Consumer Group,包括shuts down 或 crashes
訂閱的主題新增分區
將分區的所有權從一個消費者移到另一個消費者稱爲重新平衡(rebalance),如何rebalance就涉及到本文提到的分區分配策略。
下面我們將詳細介紹 Kafka 內置的兩種分區分配策略。本文假設我們有個名爲 T1 的主題,其包含了10個分區,然後我們有兩個消費者(C1,C2)
來消費這10個分區裏面的數據,而且 C1 的 num.streams = 1,C2 的 num.streams = 2。
Range strategy
Range策略是對每個主題而言的,首先對同一個主題裏面的分區按照序號進行排序,並對消費者按照字母順序進行排序。在我們的例子裏面,排完序的分區將會是0, 1, 2, 3, 4, 5, 6, 7, 8, 9;消費者線程排完序將會是C1-0, C2-0, C2-1。然後將partitions的個數除於消費者線程的總數來決定每個消費者線程消費幾個分區。如果除不盡,那麼前面幾個消費者線程將會多消費一個分區。在我們的例子裏面,我們有10個分區,3個消費者線程, 10 / 3 = 3,而且除不盡,那麼消費者線程 C1-0 將會多消費一個分區,所以最後分區分配的結果看起來是這樣的:
C1-0 將消費 0, 1, 2, 3 分區
C2-0 將消費 4, 5, 6 分區
C2-1 將消費 7, 8, 9 分區
假如我們有11個分區,那麼最後分區分配的結果看起來是這樣的:
C1-0 將消費 0, 1, 2, 3 分區
C2-0 將消費 4, 5, 6, 7 分區
C2-1 將消費 8, 9, 10 分區
假如我們有2個主題(T1和T2),分別有10個分區,那麼最後分區分配的結果看起來是這樣的:
C1-0 將消費 T1主題的 0, 1, 2, 3 分區以及 T2主題的 0, 1, 2, 3分區
C2-0 將消費 T1主題的 4, 5, 6 分區以及 T2主題的 4, 5, 6分區
C2-1 將消費 T1主題的 7, 8, 9 分區以及 T2主題的 7, 8, 9分區
可以看出,C1-0 消費者線程比其他消費者線程多消費了2個分區,這就是Range strategy的一個很明顯的弊端。

RoundRobin strategy
使用RoundRobin策略有兩個前提條件必須滿足:
同一個Consumer Group裏面的所有消費者的num.streams必須相等;
每個消費者訂閱的主題必須相同。
所以這裏假設前面提到的2個消費者的num.streams = 2。RoundRobin策略的工作原理:將所有主題的分區組成 TopicAndPartition 列表,然後對 TopicAndPartition 列表按照 hashCode 進行排序,看下面的代碼應該會明白:

val allTopicPartitions = ctx.partitionsForTopic.flatMap { case(topic, partitions) =>
  info("Consumer %s rebalancing the following partitions for topic %s: %s"
       .format(ctx.consumerId, topic, partitions))
  partitions.map(partition => {
    TopicAndPartition(topic, partition)
  })
}.toSeq.sortWith((topicPartition1, topicPartition2) => {
  /*
   * Randomize the order by taking the hashcode to reduce the likelihood of all partitions of a given topic ending
   * up on one consumer (if it has a high enough stream count).
   */
  topicPartition1.toString.hashCode < topicPartition2.toString.hashCode
})

最後按照round-robin風格將分區分別分配給不同的消費者線程。

在這個的例子裏面,假如按照 hashCode 排序完的topic-partitions組依次爲T1-5, T1-3, T1-0, T1-8, T1-2, T1-1, T1-4, T1-7, T1-6, T1-9,我們的消費者線程排序爲C1-0, C1-1, C2-0, C2-1,最後分區分配的結果爲:

C1-0 將消費 T1-5, T1-2, T1-6 分區;
C1-1 將消費 T1-3, T1-1, T1-9 分區;
C2-0 將消費 T1-0, T1-4 分區;
C2-1 將消費 T1-8, T1-7 分區;
多個主題的分區分配和單個主題類似。遺憾的是,目前我們還不能自定義分區分配策略,只能通過partition.assignment.strategy參數選擇 range 或 roundrobin。

--------------------- 
作者:AlferWei 
來源:CSDN 
原文:https://blog.csdn.net/OiteBody/article/details/80595971 
版權聲明:本文爲博主原創文章,轉載請附上博文鏈接!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章