ElasticSearch接收rabbitmq消息队列的消息

本文介绍了如何通过RabbitMQ消息队列实现ELK(Elasticsearch, Logstash, Kibana)架构的日志处理。在Logstash Agent收集数据后,借助RabbitMQ存储并转发给Logstash,经过过滤和分析,数据最终存储到Elasticsearch,并由Kibana展示。配置包括logstash.conf、项目中的logback-spring.xml,以及各个组件的启动。测试成功后,日志会从RabbitMQ传递至Elasticsearch。" 24508861,429017,使用ASM进行API Hook实战,"['汇编语言', 'API Hook', '系统编程']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

大家先看一下ELK通过rabbitmq消息队列保存日志的结构图:
在这里插入图片描述
此种架构引入了消息队列机制,位于各个节点上的Logstash Agent先将数据/日志传递给RabbitMQ(或者Redis),并将队列中消息或数据间接传递给Logstash,Logstash过滤、分析后将数据传递给Elasticsearch存储。最后由Kibana将日志和数据呈现给用户。因为引入了RabbitMQ(或者Redis),所以即使远端Logstash server因故障停止运行,数据将会先被存储下来,从而避免数据丢失。

那我们来看一下如何配置:
logstash的配置文件logstash.conf(自定义名称)

input{
    rabbitmq {
        host => "192.168.20.42"    #RabbitMQ-IP地址
        vhost => "/"      #虚拟主机
        port => 5672             #端口号
        user => "test"            #用户名
        password => "test"        #密码
        queue => "LogQueue"      #队列
        durable => false         #持久化跟队列配置一致
        codec => "plain"         #格式
    }
	tcp {
		host => "localhost"
		mode => "server"
		port => 9900
    }

	file{
      path => ["E:/logs/logsFile.log"]  # 想要收集的日志信息文件-注意全路径
      type=>"elasticsearch"            
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值