flume+kafka配置测试流程

本文详细介绍了如何配置Flume的conf文件来连接Kafka,包括设置source、channel和sink,以及启动Flume agent和Kafka消费者进行测试。通过在指定目录下创建文件,观察Kafka消费者接收到的数据,成功完成了Flume到Kafka的数据传输。

1、配置flume里的conf文件

[root@Zk-robot-2 kafka]# cd /opt/flume-1.8.0/conf/
[root@Zk-robot-2 conf]# vi flume_to_kafka.conf

#配置agent
agent1.sources=source1
agent1.channels=channel1
agent1.sinks=sink1

#配置source1

agent1.sources.source1.type=spooldir

#指定监控的目录,监控/home/hadoop/logs,如果监控的文件夹有更新
agent1.sources.source1.spoolDir=/home/hadoop/logs
agent1.sources.source1.channels=channel1
agent1.sources.source1.fileHeader=false

 

#配置channel1
agent1.channels.channel1.type=file
#channel存放数据的备份目录
agent1.channels.channel1.checkpointDir=/home/hadoop/channel_data.backup
#channel数据存放目录
agent1.channels.channel1.dataDirs=/home/hadoop/channel_data

#配置sink1

#指定从哪一个channel中取数
agent1.sinks.sink1.channel=channel1
#指定消息发送到kafka
agent1.sinks.sink1.type=org.apache.flume.sink.kafka.KafkaSink

#指定发送到哪一个sink,如果topic不存在,会默认创建,但是默认分区和副本为1
agent1.sinks.sink1.kafka.topic=abbytest20190724
agent1.sinks.sink1.kafka.bootstrap.servers=localhost:9092

agent1.sinks.sink1.kafka.flumeBatchSize=20

#如果kafka分区的leader确认写入,则认为消息提交成功

agent1.sinks.sink1.kafka.producer.acks=1

#每个ms就发送一次消息

agent1.sinks.sink1.kafka.producer.linger.ms=1

 

2、启动fulme

bin/flume-ng agent -n agent1 -c conf -f conf/flume_to_kafka.conf -Dflume.root.logger=DEBUG,console

3、到另一个控制台,开启kafka的接收者

bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic abby --from-beginning

4、测试,第三个控制台在/home/hadoop/logs目录下添加文件

 echo "Hello ABBY" > ABBY.TXT
 

这时候,kafka接收者有一个接收,Hello ABBY

完成!!!



                                                   

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值