Spring整合kafka

本文详细介绍如何在Spring框架中整合Kafka,包括引入依赖、配置、生产者与消费者代码实现及测试方法。通过具体示例,展示如何使用KafkaTemplate发送消息及@KafkaListener接收并处理消息。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

引入依赖

<dependency>
	<groupId>org.springframework.kafka</groupId>
	<artifactId>spring-kafka</artifactId>
</dependency>

配置kafka

application.properties

#kafkaProperties
spring.kafka.bootstrap-servers=localhost:9092
spring.kafka.consumer.group-id=test-consumer-group
spring.kafka.consumer.enable-auto-commit=true
spring.kafka.consumer.auto-commit-interval=3000

这个组的参数是在kafka文件夹下config\consumer.properties文件里定义的。
在这里插入图片描述

访问kafka

  • 生产者
    使用spring容器中的KafkaTemplate实现发送消息。
    提供一个方法供外界调用kafkaTemplate的send方法。
@Component
class KafkaProducer{
    @Autowired
    private KafkaTemplate kafkaTemplate;
    public void sentMessage(String topic,String content){
        kafkaTemplate.send(topic,content);
    }
}
  • 消费者
    使用 @KafkaListener注解,对对应主题进行监听(可以理解为有个线程一直阻塞着,等待读取该主题下的消息,有消息就读取,没有消息就阻塞)。
    如果读取到消息,就交给handleMessage方法去处理(这个方法是自定义的),将消息封装成ConsumerRecord,然后从ConsumerRecord中可以读取到原始消息。
@Component
class KafkaConsumer{
    @KafkaListener(topics = {"test"})
    public void handleMessage(ConsumerRecord record){
        System.out.println(record.value());
    }
}

测试方法

@RunWith(SpringRunner.class)
@SpringBootTest
@ContextConfiguration(classes = CommunityApplication.class)
public class KafkaTests {
    @Autowired
    private KafkaProducer kafkaProducer;

    @Test
    public void testKafka(){
        kafkaProducer.sentMessage("test","你好");
        kafkaProducer.sentMessage("test","在吗");
        try {
            Thread.sleep(1000*10);
        } catch (InterruptedException e) {
            e.printStackTrace();
        }

    }
}

参考资料:牛客课程

### Spring Boot 整合 Apache Kafka 示例教程 #### 1. 添加依赖项 为了使Spring Boot应用能够与Apache Kafka通信,需在`pom.xml`文件中加入必要的Maven依赖。这些依赖包括核心的Kafka客户端库以及Spring Kafka的支持包[^3]。 ```xml <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> </dependency> ``` #### 2. 配置Kafka连接属性 通过application.properties或application.yml定义Kafka集群的相关参数,比如bootstrap servers地址等。这一步骤对于建立生产者和消费者同Kafka之间的联系至关重要[^2]。 ```yaml spring: kafka: bootstrap-servers: localhost:9092 consumer: group-id: my-group auto-offset-reset: earliest producer: key-serializer: org.apache.kafka.common.serialization.StringSerializer value-serializer: org.apache.kafka.common.serialization.StringSerializer ``` #### 3. 创建配置类启用Kafka功能 创建一个新的Java配置类并标注`@Configuration`和`@EnableKafka`注解来激活Kafka特性。这样做可以让开发者更灵活地管理组件而不需要修改主应用程序入口点[^4]。 ```java package com.example.demo.config; import org.springframework.context.annotation.Configuration; import org.springframework.kafka.annotation.EnableKafka; @Configuration @EnableKafka public class KafkaConfig { } ``` #### 4. 实现消息发送器(Producer) 构建一个服务层用来封装向指定主题发布消息的方法逻辑。这里展示了怎样利用`KafkaTemplate`对象简化编码过程[^1]。 ```java @Service public class ProducerService { private static final String TOPIC = "test-topic"; @Autowired private KafkaTemplate<String, String> kafkaTemplate; public void sendMessage(String message){ this.kafkaTemplate.send(TOPIC,message); } } ``` #### 5. 构建监听处理器(Consumer) 编写带有`@KafkaListener`标记的方法接收来自特定主题的消息,并对其进行处理。该方法会自动响应任何匹配条件的新记录到达事件。 ```java @Component public class ConsumerService { @KafkaListener(topics = "${kafka.topic}", groupId = "${spring.kafka.consumer.group-id}") public void listen(String message) throws Exception{ System.out.println("Received Message in group foo: " + message); } } ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值