Windows下搭建kafka環境並測試


一:kafka介紹

kafka(官網地址:http://kafka.apache.org)是一種高吞吐量的分佈式發佈訂閱的消息隊列系統,具有高性能和高吞吐率。

1.1 術語介紹

  • Broker

Kafka集羣包含一個或多個服務器,這種服務器被稱爲broker

  • Topic

主題:每條發佈到Kafka集羣的消息都有一個類別,這個類別被稱爲Topic。(物理上不同Topic的消息分開存儲,邏輯上一個Topic的消息雖然保存於一個或多個broker上但用戶只需指定消息的Topic即可生產或消費數據而不必關心數據存於何處)

  • Partition

分區:Partition是物理上的概念,每個Topic包含一個或多個Partition.(一般爲kafka節點數cpu的總核數)

  • Producer

生產者,負責發佈消息到Kafka broker

  • Consumer

消費者:從Kafka broker讀取消息的客戶端。

  • Consumer Group

消費者組:每個Consumer屬於一個特定的Consumer Group(可爲每個Consumer指定group name,若不指定group name則屬於默認的group)。


1.2 基本特性

  • 可擴展性

在不需要下線的情況下進行擴容
數據流分區(partition)存儲在多個機器上

  • 高性能

單個broker就能服務上千客戶端
單個broker每秒種讀/寫可達每秒幾百兆字節
多個brokers組成的集羣將達到非常強的吞吐能力

  • 性能穩定,無論數據多大

Kafka在底層摒棄了Java堆緩存機制,採用了操作系統級別的頁緩存,同時將隨機寫操作改爲順序寫,再結合Zero-Copy的特性極大地改善了IO性能。


1.3 消息格式

一個topic對應一種消息格式,因此消息用topic分類
一個topic代表的消息有1個或者多個patition(s)組成
一個partition應該存放在一到多個server上,如果只有一個server,就沒有冗餘備份,是單機而不是集羣;如果有多個server,一個server爲leader(領導者),其他servers爲followers(跟隨者),leader需要接受讀寫請求,followers僅作冗餘備份,leader出現故障,會自動選舉一個follower作爲leader,保證服務不中斷;每個server都可能扮演一些partitions的leader和其它partitions的follower角色,這樣整個集羣就會達到負載均衡的效果
消息按順序存放;消息順序不可變;只能追加消息,不能插入;每個消息都有一個offset,用作消息ID, 在一個partition中唯一;offset有consumer保存和管理,因此讀取順序實際上是完全有consumer決定的,不一定是線性的;消息有超時日期,過期則刪除

1.4 原理解析

producer創建一個topic時,可以指定該topic爲幾個partition(默認是1,配置num.partitions),然後會把partition分配到每個broker上,分配的算法是:a個broker,第b個partition分配到b%a的broker上,可以指定有每個partition有幾分副本Replication,副本的分配策略爲:第c個副本存儲在第(b+c)%a的broker上。一個partition在每個broker上是一個文件夾,文件夾中文件的命名方式爲:topic名稱+有序序號。每個partition中文件是一個個的segment,segment file由.index和.log文件組成。兩個文件的命名規則是,上一個segmentfile的最後一個offset。這樣,可以快速的刪除old文件。

producer往kafka裏push數據,會自動的push到所有的分區上,消息是否push成功有幾種情況:1,接收到partition的ack就算成功,2全部副本都寫成功纔算成功;數據可以存儲多久,默認是兩天;producer的數據會先存到緩存中,等大小或時間達到閾值時,flush到磁盤,consumer只能讀到磁盤中的數據。

consumer從kafka裏poll數據,poll到一定配置大小的數據放到內存中處理。每個group裏的consumer共同消費全部的消息,不同group裏的數據不能消費同樣的數據,即每個group消費一組數據。

consumer的數量和partition的數量相等時消費的效率最高。這樣,kafka可以橫向的擴充broker數量和partitions;數據順序寫入磁盤;producer和consumer異步

二:環境搭建(windows)

2.1 安裝zookeeper

1、kafka需要用到zookeeper,所以需要先安裝zookeeper

2、到官網下載最新版zookeeper,http://www.apache.org/dyn/closer.cgi/zookeeper/   官網目前有兩個版本,注意下載帶bin名稱的版本,否則自動zookeeper時會報錯 找不到或無法加載主類 org.apache.zookeeper.server.quorum.QuorumPeerMain


3、解壓到指定路徑
複製conf目錄下zoo_sample.cfg,粘貼改名爲zoo.cfg,修改zoo.cfg中的dataDir的值爲E:/data/zookeeper,並添加一行dataLogDir=E:/log/zookeeper
4、修改系統環境變量,在Path後添加 ;E:\zookeeper\zookeeper-3.4.10\bin
運行cmd命令窗口,輸入zkServer回車,啓動


2.2 安裝kafka

1、到官網下載最新版kafka,http://kafka.apache.org/downloads
2、解壓到指定路徑,如:E:\kafka_2.12-0.10.2.0
3、修改E:\kafka_2.12-0.10.2.0\config目錄下的server.properties中 log.dirs的值爲E:/log/kafka
4、添加系統環境變量,在Path後添加 ;E:\kafka_2.12-0.10.2.0\bin\windows
5、啓動kafka,在cmd命令行用cd命令切換到kafka根目錄E:\kafka_2.12-0.10.2.0,輸入命令
.\bin\windows\kafka-server-start.bat .\config\server.properties
出現started (kafka.server.KafkaServer)字樣表示啓動成功

 

2.3 測試kafka


1、運行cmd命令行,創建一個topic,命令如下:
kafka-topics.bat --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test


2、再打開一個cmd,創建一個Producer,命令如下:
kafka-console-producer.bat --broker-list localhost:9092 --topic test


3、再打開一個cmd,創建一個Customer,命令如下:
一般的博客寫的創建指令: kafka-console-consumer.bat --zookeeper localhost:2181 --topic test,這個指令會報錯zookeeper is not a recognized option

使用這條指令: kafka-console-consumer.bat  --bootstrap-server localhost:9092 --topic test --from-beginning
在Producer窗口下輸入信息進行測試 ,每輸入一行回車後消息馬上就會出現在Customer中,表明kafka已經安裝測試成功

 

三:基於.net的常用類庫

基於.net實現kafka的消息隊列應用,常用的類庫有kafka-net,Confluent.Kafka,官網推薦使用Confluent.Kafka,本文也是基於該庫的實現,使用版本預發行版1.0.0-beta,創建控制檯應用程序。

四:應用–生產者

生產者將數據發佈到指定的主題,一般生產環境下的負載均衡,服務代理會有多個,BootstrapServers屬性則爲以逗號隔開的多個代理地址

/// <summary>
/// 生產者
/// </summary>
public static void Produce()
{
     var config = new ProducerConfig { BootstrapServers = "localhost:9092" }
     Action<DeliveryReportResult<Null, string>> handler = r =>
     Console.WriteLine(!r.Error.IsError
         ? $"Delivered message to {r.TopicPartitionOffset}"
         : $"Delivery Error: {r.Error.Reason}");

    using (var producer = new Producer<Null, string>(config))
    {
        // 錯誤日誌監視
        producer.OnError += (_, msg) => { Console.WriteLine($"Producer_Erro信息:Code:{msg.Code};Reason:{msg.Reason};IsError:{msg.IsError}"); };

        for (int i = 0; i < 5; i++)
        {
            // 異步發送消息到主題
            producer.BeginProduce("MyTopic", new Message<Null, string> { Value = i.ToString() }, handler);
        }   
        // 3後 Flush到磁盤
        producer.Flush(TimeSpan.FromSeconds(3));
    }
}

 

在這裏插入圖片描述


五:應用–消費者

消費者使用消費者組名稱標記自己,並且發佈到主題的每個記錄被傳遞到每個訂閱消費者組中的一個消費者實例。消費者實例可以在單獨的進程中,也可以在不同的機器

如果所有消費者實例具有相同的消費者組,則記錄將有效地在消費者實例上進行負載平衡。

如果所有消費者實例具有不同的消費者組,則每個記錄將廣播到所有消費者進程

上圖爲兩個服務器Kafka羣集,託管四個分區(P0-P3),包含兩個消費者組。消費者組A有兩個消費者實例,B組有四個消費者實例。

默認EnableAutoCommit 是自動提交,只要從隊列取出消息,偏移量自動移到後一位,無論消息後續處理成功與否,該條消息都會消失,所以爲免除處理失敗的數據丟失,消費者方可設置該屬性爲false,後面進行手動commint()提交偏移

  /// <summary>
  /// 消費者
  /// </summary>
  public static void Consumer()
  {
      var conf = new ConsumerConfig
      {
          GroupId = "test-consumer-group",
          BootstrapServers = "localhost:9092",
          AutoOffsetReset = AutoOffsetResetType.Earliest,
          EnableAutoCommit = false  // 設置非自動偏移,業務邏輯完成後手動處理偏移,防止數據丟失
      };

      using (var consumer = new Consumer<Ignore, string>(conf))
      {
          // 訂閱topic
          consumer.Subscribe("MyTopic");
          // 錯誤日誌監視 
          consumer.OnError += (_, msg) => { Console.WriteLine($"Consumer_Error信息:Code:{msg.Code};Reason:{msg.Reason};IsError:{msg.IsError}"); };

          while (true)
          {
              try
              {
                  var consume = consumer.Consume();
                  string receiveMsg = consume.Value;
                  Console.WriteLine($"Consumed message '{receiveMsg}' at: '{consume.TopicPartitionOffset}'.");
                  // 開始我的業務邏輯
                  ...
                  // 業務結束
                  if(成功)
                  {
                        consumer.Commit(new List<TopicPartitionOffset>() { consume.TopicPartitionOffset }); //手動提交偏移
                  }
              }
              catch (ConsumeException e)
              {
                  Console.WriteLine($"Consumer_Error occured: {e.Error.Reason}");
              }
          }
      }
  }


執行結果

在這裏插入圖片描述

常見數據問題處理

重複消費最常見的原因:re-balance問題,通常會遇到消費的數據,處理很耗時,導致超過了Kafka的session timeout時間(0.10.x版本默認是30秒),那麼就會re-balance重平衡,此時有一定機率offset沒提交,會導致重平衡後重復消費。
去重問題:消息可以使用唯一id標識
保證不丟失消息:
生產者(ack= -1 或 all 代表至少成功發送一次)
消費者 (offset手動提交,業務邏輯成功處理後,提交offset)
保證不重複消費:落表(主鍵或者唯一索引的方式,避免重複數據)
業務邏輯處理(選擇唯一主鍵存儲到Redis或者mongdb中,先查詢是否存在,若存在則不處理;若不存在,先插入Redis或Mongdb,再進行業務邏輯處理)
Kafka 可視化調試

藉助可視化客戶端工具 kafka tool
具體使用可參考:https://www.cnblogs.com/frankdeng/p/9452982.html

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章