springboot如何集成消息中间件kafka

本文详细介绍SpringBoot项目中集成Kafka的过程,包括Kafka和Zookeeper的安装配置,SpringBoot项目的配置,消息发送和接收类的实现,以及通过REST接口发送消息的示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

kafka

1.kafka安装
安装zookeeper

切到/usr/local
cd /usr/local

下载zookeeper(服务器联网状态)
wget http://mirrors.hust.edu.cn/apache/zookeeper/zookeeper-3.4.13/zookeeper-3.4.13.tar.gz
不能联网就从官网下载到本地,然后上传到服务器

解压
tar -zxvf zookeeper-3.4.13.tar.gz 就会出现zookeeper-3.4.13的文件夹了

解压完成后,需要设置zookeeper的工作目录,存放日志和数据
cd zookeeper-3.4.13
mkdir data

修改配置文件
cd conf
cp zoo_sample.cfg zoo.cfg
vim zoo.cfg
将 dataDir 修改为 /usr/loca/zookeeper-3.4.13/data

在这里插入图片描述
启动:
进入zookeeper的bin目录
cd …/bin
./zkServer.sh start

在这里插入图片描述
如图,有STARTED 说明启动成功
还可以用过 ./zkServer.sh status 查看状态

下载kafka:

wget http://archive.apache.org/dist/kafka/2.1.0/kafka_2.12-2.1.0.tgz

解压:
tar -zxvf kafka_2.11-1.0.0.tgz

修改配置文件
cd kafka_2.11-1.0.0/config/
vim server.properties
开启 listeners ,在 your.host.name 的地方输入你主机内网ip
开启 advertised.listeners 在 your.host.name 的地方输入你主机外网ip
在这里插入图片描述

启动(后台启动):
cd /usr/local/kafka_2.11-1.0.0/
nohup bin/kafka-server-start.sh config/server.properties >/dev/null 2>&1 &

创建一个topic(topic名字为 helloydb):
./bin/kafka-topics.sh --create --zookeeper 172.17.54.58:2181 --replication-factor 1 --partitions 1 --topic helloydb
在这里插入图片描述

2.kafka命令
kafka启动命令:

前台: ./kafka-server-start.sh /usr/local/kafka_2.11-2.2.0/config/server.properties

后台: nohup bin/kafka-server-start.sh config/server.properties >/dev/null 2>&1 &

启动kafka消费者
./kafka-console-consumer.sh --bootstrap-server 172.17.54.58:9092 --topic helloydb–from-beginning

启动kafka生产者
./kafka-console-producer.sh --broker-list 172.17.54.58:9092 --topic helloydb

springboot集成kafka

1.配置

在application.yml文件中添加如下配置
`
# kafka 配置
kafka:
代理地址,可以多个
bootstrap-servers: 47.106.139.245:9092
# producerr
producer:
retries: 0
# 每次批量发送消息的数量
batch-size: 16384
buffer-memory: 33554432
# 指定消息key和消息体的编解码方式
key-serializer: org.apache.kafka.common.serialization.StringSerializer
value-serializer: org.apache.kafka.common.serialization.StringSerializer

# consumer
consumer:
  # 指定默认消费者group - id
  group-id: test-consumer-group
  auto-offset-reset: earliest
  enable-auto-commit: true
  auto-commit-interval:
  key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
  value-deserializer: org.apache.kafka.common.serialization.StringDeserializer

`在这里插入图片描述

2.消息类 KafkaMessage

编写好消息类:

package com.minhai.boot.kafka;


import lombok.Data;
import java.util.Date;

/**
 * @author
 * @Date 2019/9/28 0028 20:33
 * @modify 2019/9/28
 * @since
 */
@Data
public class KafkaMessage {

    private Long id;

    private String msg;

    private Date sendTime;


}

3.消息发送类 KafkaSender
package com.minhai.boot.kafka;

import com.google.gson.Gson;
import com.google.gson.GsonBuilder;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.stereotype.Component;
import org.springframework.stereotype.Repository;

import java.util.Date;

/**
 * @author 
 * @Date 2019/9/28 0028 20:35
 * @modify 2019/9/28 0028  v2.8.7 创建
 * @since v2.8.7
 */
@Component
@Repository
public class KafkaSender {

    /**
     * LOGGER 日志
     */
    private static final Logger LOGGER = LoggerFactory.getLogger(KafkaSender.class);

    @Autowired
    private KafkaTemplate<String ,String> kafkaTemplate;
    private Gson gson = new GsonBuilder().create();

    // 发送消息的方法
    public void send(){
        Long startTime = System.currentTimeMillis();
        LOGGER.info("start send message to kafka ,startTime = [{}]" , startTime);
        for( int i = 0 ; i < 100 ; i++){
            KafkaMessage kafkaMessage = new KafkaMessage();
            kafkaMessage.setId( System.currentTimeMillis());
            kafkaMessage.setMsg("test kafka message --" + i);
            kafkaMessage.setSendTime(new Date());
            kafkaTemplate.send("helloydb" , gson.toJson(kafkaMessage));
            LOGGER.info("++++++++++++++++  message = {}" , gson.toJson(kafkaMessage));
        }
        LOGGER.info("end send message to kafka ,endTime = [{}] , timeConsumer is [{}]" , startTime , System.currentTimeMillis()-startTime);
    }
    
}

4.消息接收类 KafkaReceiver
package com.minhai.boot.kafka;

import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;

import java.util.Optional;

/**
 * @author 
 * @Date 2019/9/28 0028 20:55
 * @modify 2019/9/28 0028  v2.8.7 创建
 * @since v2.8.7
 */
@Component
public class KafkaReceiver {

    /**
     * LOGGER 日志
     */
    private static final Logger LOGGER = LoggerFactory.getLogger(KafkaReceiver.class);

    @KafkaListener(topics = "helloydb",groupId = "test-consumer-group")
    public void listen(ConsumerRecord<?,?> record){

        Optional<?> kafkaMessage = Optional.ofNullable( record.value());
        if( kafkaMessage.isPresent()){
            Object message = kafkaMessage.get();
            LOGGER.info("---------------------- message = " + message);

        }
    }

}

5.发送消息
package com.minhai.boot.kafka;

import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.ResponseBody;
import org.springframework.web.bind.annotation.RestController;

/**
 * @author 
 * @Date 2019/10/8 0008 17:38
 * @modify 2019/10/8 0008  v2.8.7 创建
 * @since v2.8.7
 */
@RestController
@RequestMapping("kafka")
public class KafkaTestController {

    @Autowired
    private KafkaSender kafkaSender;

    @RequestMapping("test")
    @ResponseBody
    private String testKafka(){
        kafkaSender.send();
        return "success";
    }

}

项目启动后,调用 /kafka/test/ 接口,就能发现在刚刚启动的服务器消费者界面,有消费刚刚用程序发送的100条数据。
在这里插入图片描述

<think>好的,用户需要查找Spring Boot 2.7.18兼容的Kafka和Elasticsearch版本。首先,我需要回忆Spring Boot的依赖管理机制。根据引用[1],spring-boot-parent的父工程是spring-boot-dependencies,这个pom文件里管理了所有第三方库的版本。所以,正确的版本应该由Spring Boot的BOM(物料清单)自动管理。 接下来,我需要确定用户提到的Spring Boot版本2.7.18对应的Kafka和Elasticsearch版本。通常,Spring Boot每个版本都会指定兼容的第三方库版本,这些信息可以在官方文档或对应的spring-boot-dependencies的pom文件中找到。 首先,检查Spring Boot 2.7.18的官方文档,或者直接查看其pom文件。假设用户无法直接访问这些资源,我需要引导他们如何找到正确的版本。对于Kafka,Spring Boot通常使用Spring Kafka,其版本由Spring Boot管理。同样,Elasticsearch的客户端版本如Spring Data Elasticsearch也会有对应的兼容版本。 另外,用户可能需要手动指定版本的情况,比如当他们需要比Spring Boot管理的版本更高的版本时。这时候需要确认是否兼容,但通常建议遵循Spring Boot推荐的版本以避免冲突。 总结步骤:1. 查看Spring Boot 2.7.18的spring-boot-dependencies.pom文件,找到对应的Kafka和Elasticsearch依赖项。2. 提供Maven和Gradle的配置示例。3. 提示用户如何检查版本,例如通过Maven命令或查看本地仓库中的pom文件。4. 提醒用户版本兼容性的重要性及升级注意事项。</think>### 如何查找Spring Boot 2.7.18兼容的Kafka和Elasticsearch版本? #### 1. **Spring Boot依赖管理机制** Spring Boot通过`spring-boot-dependencies`统一管理第三方库的兼容版本[^1]。在项目的`pom.xml`中引入`spring-boot-starter-parent`后,所有依赖的版本号(包括Kafka和Elasticsearch)会自动匹配Spring Boot 2.7.18的兼容版本。 #### 2. **具体兼容版本** - **Kafka**: Spring Boot 2.7.18默认集成Kafka客户端版本为`2.8.1`,对应的Spring Kafka版本为`2.8.x`。 ```xml <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> </dependency> ``` - **Elasticsearch**: Spring Boot 2.7.18默认支持Elasticsearch客户端`7.17.x`,对应的Spring Data Elasticsearch版本为`4.4.x`。 ```xml <dependency> <groupId>org.springframework.data</groupId> <artifactId>spring-data-elasticsearch</artifactId> </dependency> ``` #### 3. **验证版本的方法** - **查看本地仓库的pom文件** 在本地Maven仓库中找到`spring-boot-dependencies-2.7.18.pom`文件(路径示例:`~/.m2/repository/org/springframework/boot/spring-boot-dependencies/2.7.18`),搜索`kafka.version`和`elasticsearch.version`属性值。 - **使用Maven命令** 运行以下命令直接列出依赖树: ```bash mvn dependency:tree -Dincludes=org.springframework.kafka:spring-kafka,org.elasticsearch.client:elasticsearch-rest-high-level-client ``` #### 4. **手动指定版本的注意事项** 如果需升级版本,需确保与Spring Boot 2.7.18兼容。例如: ```xml <properties> <kafka.version>3.3.2</kafka.version> <elasticsearch.version>7.17.13</elasticsearch.version> </properties> ``` **注意**:升级可能引入兼容性问题,建议参考[Spring Boot官方兼容性列表](https://spring.io/projects/spring-boot#support)。 --- ### 相关问题 1. Spring Boot如何管理第三方依赖的版本兼容性? 2. 如何查看Spring Boot项目中所有依赖的默认版本? 3. 升级Kafka或Elasticsearch版本时需要注意哪些问题? [^1]: `spring-boot-dependencies`通过父POM统一管理依赖版本,确保兼容性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值