Kafka整合SpringBoot

Kafka整合SpringBoot

準備工作

假設你瞭解過 SpringBoot 和 Kafka。

1、SpringBoot

如果對 SpringBoot 不瞭解的話,建議去看看 DD 大佬 和 純潔的微笑 的系列博客。

2、Kafka

Kafka 的話可以看看的博客 : Kafka 安裝及快速入門 ,學習的話自己開臺虛擬機自己手動搭建環境吧,有條件的買服務器。

3、版本

  • Kafka服務版本爲 kafka_2.11-1.1.0 (Scala), 也就是1.1.0

  • Kafka的spring-kafka依賴我用的是1.1.1.RELEASE

先啓動zookeeper,然後啓動kafka

  • 進入到/opt/kafka/kafka_2.11-1.1.0目錄下啓動kafka自帶的zookeeper

    • bin/zookeeper-server-start.sh config/zookeeper.properties

  • 啓動kafka之前先vim config/server.properties,把server.properties中 advertised。listeners=PLAINTEXT://IP:9092 的IP替換成你服務器IP(這個ip會對應springboot項目的spring.kafka.bootstrap-servers=192.168.25.128:9092)

  • 用下面命令啓動kafka,9092端口

    • bin/kafka-server-start.sh config/server.properties

注意!!!

啓動完zookeeper和kafka,記得將你的虛擬機或者服務器關閉防火牆或者開啓 Kafka 的端口 9092。不然的話會報錯,連不上虛擬機的kafka服務

創建SpringBoot項目

  • 選擇這個快速創建項目

  • 勾選web

項目整體架構:

1、pom 文件代碼如下:

 <?xml version="1.0" encoding="UTF-8"?>
 <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
     xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>

<groupId>com.sunment</groupId>
<artifactId>kafkatest02</artifactId>
<version>0.0.1-SNAPSHOT</version>
<packaging>jar</packaging>

<name>kafkatest02</name>
<description>Demo project for Spring Boot</description>

<parent>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-parent</artifactId>
    <version>1.5.10.RELEASE</version>
    <relativePath/> <!-- lookup parent from repository -->
</parent>

<properties>
    <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
    <project.reporting.outputEncoding>UTF-8</project.reporting.outputEncoding>
    <java.version>1.8</java.version>
</properties>

<dependencies>
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-web</artifactId>
    </dependency>

    <dependency>
        <groupId>org.projectlombok</groupId>
        <artifactId>lombok</artifactId>
        <optional>true</optional>
    </dependency>

    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-test</artifactId>
        <scope>test</scope>
    </dependency>
    <!--kafka start
    <dependency>
        <groupId>org.apache.kafka</groupId>
        <artifactId>kafka-clients</artifactId>
        <version>0.11.0.1</version>
    </dependency>
    <dependency>
        <groupId>org.apache.kafka</groupId>
        <artifactId>kafka-streams</artifactId>
        <version>0.11.0.1</version>
    </dependency>-->
    <dependency>
        <groupId>org.springframework.kafka</groupId>
        <artifactId>spring-kafka</artifactId>
        <version>1.1.1.RELEASE</version>
    </dependency>

    <dependency>
        <groupId>com.google.code.gson</groupId>
        <artifactId>gson</artifactId>
        <version>2.8.2</version>
    </dependency>

</dependencies>

<build>
    <plugins>
        <plugin>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-maven-plugin</artifactId>
        </plugin>
    </plugins>
</build>
 </project>

主要引入了 spring-kafka 、lombok 、 gson 依賴

2、消息實體類 Message.java 如下:

@Data
public class Message {

private Long id;    //id

private String msg; //消息

private Date sendTime;  //時間戳
}

3、消息發送類 KafkaSender.java

@Component
@Slf4j
public class KafkaSender {
@Autowired
private KafkaTemplate<String, String> kafkaTemplate;

private Gson gson = new GsonBuilder().create();

//發送消息方法
public void send() {
    Message message = new Message();
    message.setId(System.currentTimeMillis());
    message.setMsg(UUID.randomUUID().toString());
    message.setSendTime(new Date());
    log.info("+++++++++++++++++++++  message = {}", gson.toJson(message));
    kafkaTemplate.send("yang", gson.toJson(message));
}

}

這裏關鍵的代碼爲 kafkaTemplate.send() 方法,yang 是 Kafka 裏的 topic ,這個 topic 在 Java 程序中是不需要提前在 Kafka 中設置的,當然提前在kafka創建這個topic也可以,因爲它會在發送的時候自動創建你設置的 topic, gson.toJson(message) 是消息內容。

4、消息接收類 KafkaReceiver.java

@Component
@Slf4j
public class KafkaReceiver {
@KafkaListener(topics = {"yang"})
public void listen(ConsumerRecord<?, ?> record) {

    Optional<?> kafkaMessage = Optional.ofNullable(record.value());

    if (kafkaMessage.isPresent()) {

        Object message = kafkaMessage.get();

        log.info("----------------- record =" + record);
        log.info("------------------ message =" + message);
    }

}

}

客戶端 consumer 接收消息特別簡單,直接用 @KafkaListener 註解即可,並在監聽中設置監聽的 topic ,topics 是一個數組所以是可以綁定多個主題的,上面的代碼中修改爲 @KafkaListener(topics = {"yang","tian"}) 就可以同時監聽兩個 topic 的消息了。需要注意的是:這裏的 topic 需要和消息發送類 KafkaSender.java 中設置的 topic 一致。注意@Component註解,不然掃描不到@KafkaListener。

5、啓動類 KafkaApplication.java

@SpringBootApplication
public class Kafkatest02Application {

public static void main(String[] args) {

    ConfigurableApplicationContext context = SpringApplication.run(Kafkatest02Application.class, args);

    KafkaSender sender = context.getBean(KafkaSender.class);

    for (int i = 0; i < 3; i++) {
        //調用消息發送類中的消息發送方法
        sender.send();

        try {
            Thread.sleep(3000);
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
    }
}


}

調用生產者發信息方法,發送3條信息。

6、配置文件 application.properties

#============== kafka ===================

# 指定kafka 代理地址,可以多個

spring.kafka.bootstrap-servers=192.168.25.128:9092

#=============== provider =======================

spring.kafka.producer.retries=0

# 每次批量發送消息的數量

spring.kafka.producer.batch-size=16384

spring.kafka.producer.buffer-memory=33554432

# 指定生產者消息key和消息體的編解碼方式

spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer

#=============== consumer =======================

# 指定默認消費者group id

spring.kafka.consumer.group-id=test-consumer-group

spring.kafka.consumer.auto-offset-reset=earliest

spring.kafka.consumer.enable-auto-commit=true

spring.kafka.consumer.auto-commit-interval=100

# 指定消費者消息key和消息體的編解碼方式

spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer

server.port=8888

192.168.25.128:9092 這個地址要和虛擬機裏面的對應。

運行項目

整合成功

然後看下 Kafka 中的 topic 列表

  • bin/kafka-topics.sh --list --zookeeper localhost:2181

表示剛剛再發信息的時候自動創建了yang topic。

再創建一個controller包,再創建一個TestKafkaProducerController生產者類

/**
 * 測試kafka生產者
 */
@RestController
@RequestMapping("kafka")
public class TestKafkaProducerController {
@Autowired
private KafkaTemplate<String, String> kafkaTemplate;

@RequestMapping("send")
public String send(String msg){
    kafkaTemplate.send("test_topic", msg);
    return "success";
}
}

在comsumer包下,再創建一個TestConsumer消費者類

/**
 * kafka消費者測試
 */
@Component
public class TestConsumer {
@KafkaListener(topics = "test_topic")
public void listen (ConsumerRecord<?, ?> record) throws Exception {
    System.out.printf("topic = %s, offset = %d, value = %s \n", record.topic(), record.offset(), record.value());
}

}

然後重啓項目,在瀏覽器輸入地址

  • http://localhost:8888/kafka/send?msg=hello

控制檯輸出

換一個參數

  • http://localhost:8888/kafka/send?msg=你好嗎

控制檯又輸出一條信息,topic也創建成功。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章