Shell 解决Redis Slow Log去重问题

本文介绍了一种使用Shell命令处理Redis慢查询日志的方法,通过将整段日志合并为一行,进行去重后再还原格式,有效解决了日志重复问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

老东家监测Redis的慢查询日志,采用Crontab 每隔一段时间对慢查询日志采样,然后追加写入一个文本文件。


所以文本文件中有很多重复的慢查询日志



如何对整段重复的慢查询日志去重呢?


采用Shell 命令的方式最简单和直接。


 awk '/^1\)/{print s;s=""};{ s=(s" "$0)}; END{print s } ' b.txt  | sort | uniq | sed 's/        /\n        /g'  | awk '/^ 1\) \(integer\)/{rc =rc+1;rowdata=rc") \t" $1" "$2" "$3"\n\t"$4" "$5" "$6" "$7"\n\t"$8" "$9" "$10;print rowdata};/^  /{print "\t"$0} END{print "不重复日志总数:" rc}'


核心就是把整段的redis日志先合并为一行,去重之后,在还原格式。


下面是用于测试的附件


icon_txt.gif redisSlowLog.txt



附王工对这个问题的需求描述和说明。


https://blog.csdn.net/wzy0623/article/details/83652539?tdsourcetag=s_pcqq_aiomsg



来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/29254281/viewspace-2218512/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/29254281/viewspace-2218512/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值