SpringCloudBus使用Kafka實現消息總線

Kafka是分佈式發佈-訂閱消息系統,最初由LinkedIn公司開發,之後成爲之後成爲Apache基金會的一部分,由ScalaJava編寫。Kafka是一種快速、可擴展的、設計內在就是分佈式的,分區的和可複製的提交日誌服務。

在開始本文前,需要搭建kafka的環境,如果是在CentOS環境下,可以看看我前面的文章:CentOS7下Kafka的安裝介紹 。其他平臺下可以自行百度或Google。

在之前的環境中,需要修改server.properties文件,開啓9092端口的監聽:

listeners=PLAINTEXT://your.host.name:9092

SpringBoot簡單整合Kafka

因爲SpringCloud是基於SpringBoot的,所以在使用SpringCloudBus整合之前先用SpringBoot整合並記錄下來。

創建項目

這裏創建一個名爲kafka-hello的SpringBoot項目,並添加以下依賴:

<dependencies>
  <dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-web</artifactId>
  </dependency>

  <dependency>
    <groupId>org.projectlombok</groupId>
    <artifactId>lombok</artifactId>
    <optional>true</optional>
  </dependency>

  <dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-test</artifactId>
    <scope>test</scope>
  </dependency>

  <dependency>
    <groupId>org.springframework.kafka</groupId>
    <artifactId>spring-kafka</artifactId>
    <version>1.1.1.RELEASE</version>
  </dependency>

  <dependency>
    <groupId>com.google.code.gson</groupId>
    <artifactId>gson</artifactId>
    <version>2.8.2</version>
  </dependency>
</dependencies>

消息實體類

@Data
public class Message {
    private Long id;//id
    private String msg; //消息
    private Date sendTime; //發送時間
}

消息產生者

在該類中創建一個消息發送的方法,使用KafkaTemplate.send()發送消息,wqh是Kafka裏的Topic。

@Component
@Slf4j
public class KafkaSender {

    @Autowired
    private KafkaTemplate<String,String> kafkaTemplate;

    private Gson gson = new GsonBuilder().create();

    public void send(Long i){
        Message message = new Message();
        message.setId(i);
        message.setMsg(UUID.randomUUID().toString());
        message.setSendTime(new Date());
        log.info("========發送消息  "+i+" >>>>{}<<<<<==========",gson.toJson(message));
        kafkaTemplate.send("wqh",gson.toJson(message));
    }
}

消息接收類,

在這個類中,創建consumer方法,並使用@KafkaListener註解監聽指定的topic,如這裏是監聽wanqh和wqh兩個topic。

@Component
@Slf4j
public class KafkaConsumer {

    @KafkaListener(topics = {"wanqh","wqh"})
    public void consumer(ConsumerRecord<?,?> consumerRecord){
        //判斷是否爲null
        Optional<?> kafkaMessage = Optional.ofNullable(consumerRecord.value());
        log.info(">>>>>>>>>> record =" + kafkaMessage);
        if(kafkaMessage.isPresent()){
            //得到Optional實例中的值
            Object message = kafkaMessage.get();
            log.info(">>>>>>>>接收消息message =" + message);
        }
    }
}

修改啓動類

@SpringBootApplication
public class KafkaApplication {

    @Autowired
    private KafkaSender kafkaSender;

    @PostConstruct
    public void init(){
      for (int i = 0; i < 10; i++) {
        //調用消息發送類中的消息發送方法
        kafkaSender.send((long) i);
      }
    }
    public static void main(String[] args) {
       SpringApplication.run(KafkaApplication.class, args);
    }
}

配置文件

spring.application.name=kafka-hello
server.port=8080
#============== kafka ===================
# 指定kafka 代理地址,可以多個
spring.kafka.bootstrap-servers=192.168.18.136:9092

#=============== provider  =======================
spring.kafka.producer.retries=0
# 每次批量發送消息的數量
spring.kafka.producer.batch-size=16384
spring.kafka.producer.buffer-memory=33554432

# 指定消息key和消息體的編解碼方式
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer

#=============== consumer  =======================
# 指定默認消費者group id
spring.kafka.consumer.group-id=test-consumer-group

spring.kafka.consumer.auto-offset-reset=earliest
spring.kafka.consumer.enable-auto-commit=true
spring.kafka.consumer.auto-commit-interval=100

# 指定消息key和消息體的編解碼方式
spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer

測試

直接啓動該項目:

SpringCloudBus整合Kafka

前面介紹使用RabbitMQ整合SpringCloudBus實現了消息總線,並且測試了動態刷新配置文件。RabbitMQ是通過引入spring-cloud-starter-bus-amqp模塊來實現消息總線。若使用Kafka實現消息總線,我們可以直接將之前添加的spring-cloud-starter-bus-amqp替換成spring-cloud-starter-bus-kafka

這裏我將前面的config-client複製一份,改名config-client-kafka。傳送門:SpingCloudBus整合RabbitMQ

  • 所添加的依賴:
<dependencies>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-starter-config</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.retry</groupId>
            <artifactId>spring-retry</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-aop</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-actuator</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-starter-eureka</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-starter-bus-kafka</artifactId>
        </dependency>
    </dependencies>
  • 添加kafka的配置信息
#Kafka的服務端列表,默認localhost
spring.cloud.stream.kafka.binder.brokers=192.168.18.136:9092
#Kafka服務端的默認端口,當brokers屬性中沒有配置端口信息時,就會使用這個默認端口,默認9092
spring.cloud.stream.kafka.binder.defaultBrokerPort=9092
#Kafka服務端連接的ZooKeeper節點列表,默認localhost
spring.cloud.stream.kafka.binder.zkNodes=192.168.18.136:2181
#ZooKeeper節點的默認端口,當zkNodes屬性中沒有配置端口信息時,就會使用這個默認端口,默認2181
spring.cloud.stream.kafka.binder.defaultZkPort=2181

測試方法與前一篇一樣,不介紹了。


參考:

項目地址:

原文[地址:

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章