头歌educoder-kafka入门篇

这篇博客是关于头歌Educoder平台上的Kafka入门教程,包括四个部分:初识Kafka,生产者简单模式,消费者自动提交偏移量和手动提交偏移量的操作。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

头歌educoder-kafka入门篇

第一关kafka-初体验

在这里插入图片描述

#!/bin/bash
#1.创建一个名为demo的Topic
kafka-topics.sh -create --zookeeper 127.0.0.1:2181 --replication-factor 1 --partitions 3 --topic demo
#2.查看所有Topic
kafka-topics.sh --list --zookeeper 127.0.0.1:2181
#3.查看名为demo的Topic的详情信息
kafka-topics.sh -topic demo --describe --zookeeper 127.0.0.1:2181

第二关:生产者-简单模式

在这里插入图片描述

package net.educoder;
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.Producer;
import org.apache.kafka.clients.producer.ProducerRecord;
import java.util.Properties;
/**
 * kafka producer 简单模式
 */
public class App {
   
   
    public static void main(String[] args) {
   
   
        /**
         * 1.创建配置文件对象,一般采用 Properties
         */
        /**----------------begin-----------------------*/
        Properties props = new Properties();
        /**-----------------end-------------------------*/
        /**
         * 2.设置kafka的一些参数
         *          bootstrap.servers --> kafka的连接地址 127.0.0.1:9092
         *          key、value的序列化类 -->org.apache.kafka.common.serialization.StringSerializer
         *          acks:1,-1,0
         */
        /**-----------------begin-----------------------*/
        props.put("bootstrap.servers", "127.0.0.1:9092");
        props.put("acks", "1");
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
### 关于Kafka入门教程 #### 安装与配置Kafka环境 为了开始学习Kafka,了解如何在本地环境中设置Kafka是非常重要的。通过wget命令可以从Apache官方网站下载指定版本的Kafka压缩包[^1]: ```bash wget https://downloads.apache.org/kafka/3.0.0/kafka_2.13-3.0.0.tgz ``` 解压该文件并进入对应的目录完成初步部署工作: ```bash tar -xzf kafka_2.13-3.0.0.tgz cd kafka_2.13-3.0.0 ``` 对于Kafka的服务端配置而言,在`config/server.properties`中可以找到默认监听地址设置项。如果希望外部网络能够访问到这台服务器上的Kafka实例,则需修改此属性为实际IP地址以及开放给客户端连接使用的端口号,例如: ```properties KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://192.168.100.102:9092 ``` 上述操作确保了Kafka集群中的节点可以通过正确的网络接口被其他应用程序发现和通信。 #### 启动服务组件 启动Zookeeper服务作为协调者来管理Kafka broker之间的协作关系;接着再开启Kafka server本身以便处理消息生产和消费请求。具体指令如下所示: ```bash bin/zookeeper-server-start.sh config/zookeeper.properties & bin/kafka-server-start.sh config/server.properties & ``` #### 创建主题与生产测试数据 创建一个新的topic用于存储特定类型的事件流记录,并利用控制台producer工具向其中发送几条简单的字符串形式的消息样本进行验证: ```bash bin/kafka-topics.sh --create --bootstrap-server localhost:9092 --replication-factor 1 --partitions 1 --topic test-topic-name echo "This is a message" | bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test-topic-name ``` 以上步骤展示了从零构建起一个简易版但功能完整的Kafka系统的全过程,这对于初学者来说是一个很好的起点去理解分布式消息队列的工作原理及其应用场景。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值