HDFS HA系列实验之七:NN故障转移处理

本文介绍Hadoop中名称节点(NN)故障转移的两种常见情况及其处理方式,包括原Active NN因各种原因失效但文件系统完好的情况,以及原Active NN元数据损坏的情况,并演示了如何在不同情况下恢复集群正常运行。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

NN是HDFS的核心,一旦破坏,hadoop整个系统将瘫痪。hadoop2.2.0提供了NN HA,提高了NN的可用性。但如果发生了NN故障转移,那么需要处理故障点。本实验主要是针对NN故障转移的几种情况的处理:
实验一:原Active NN意外挂机或JVM溢出等原因造成,但原Active NN文件系统完好
实验二:原Active NN元数据损坏或重新部署新的NN

根据上面相关资料重新配置HA+JournalNode+zookeeper环境,并格式化后启动,然后使用物理机192.168.100.111(机器名wyy)作为客户端来访问集群。
[hadoop@product202 ~]$ /app/hadoop/zookeeper345/bin/zkServer.sh start
[hadoop@product202 ~]$ /app/hadoop/hadoop220/sbin/hadoop-daemon.sh start journalnode
[hadoop@product203 ~]$ /app/hadoop/zookeeper345/bin/zkServer.sh start
[hadoop@product203 ~]$ /app/hadoop/hadoop220/sbin/hadoop-daemon.sh start journalnode
[hadoop@product204 ~]$ /app/hadoop/zookeeper345/bin/zkServer.sh start
[hadoop@product204 ~]$ /app/hadoop/hadoop220/sbin/hadoop-daemon.sh start journalnode

[hadoop@product201 ~]$ cd /app/hadoop/hadoop220/
[hadoop@product201 hadoop220]$ bin/hdfs namenode -format
[hadoop@product201 hadoop220]$ bin/hdfs zkfc -formatZK
[hadoop@product201 hadoop220]$ sbin/hadoop-daemon.sh start zkfc
[hadoop@product202 ~]$ cd /app/hadoop/hadoop220/
[hadoop@product202 hadoop220]$ sbin/hadoop-daemon.sh start zkfc
[hadoop@product201 hadoop220]$ sbin/hadoop-daemon.sh start namenode
[hadoop@product202 hadoop220]$ bin/hdfs namenode -bootstrapStandby
[hadoop@product202 hadoop220]$ sbin/hadoop-daemon.sh start namenode
[hadoop@product201 hadoop220]$ sbin/hadoop-daemons.sh start datanode


1:实验一
客户端通过http://product201:50070可以发现product201处于active状态
客户端通过http://product202:50070可以发现product202处于standby状态

重启product201(因为没有zookeeper和JN进程在跑,可以直接重新启动来模拟机器故障),这时:
客户端通过http://product201:50070已经无法访问
客户端通过http://product202:50070可以发现product202处于active状态
此时文件操作正常

启动product201的NN守护进程
[hadoop@product201 hadoop220]$ sbin/hadoop-daemon.sh start zkfc
[hadoop@product201 hadoop220]$ sbin/hadoop-daemon.sh start namenode
客户端通过http://product201:50070可以发现product201处于standby状态
客户端通过http://product202:50070可以发现product202处于active状态
此时文件操作正常

在product202上kill DFSZKFailoverController进程和namenode进程,模拟product202故障,
[hadoop@product202 hadoop220]$ jps
2374 NameNode
2472 JournalNode
2558 DFSZKFailoverController
2930 Jps
1706 QuorumPeerMain
[hadoop@product202 hadoop220]$ kill 2374
[hadoop@product202 hadoop220]$ kill 2558
[hadoop@product202 hadoop220]$ jps
2472 JournalNode
2998 Jps
1706 QuorumPeerMain
这时:
客户端通过http://product201:50070可以发现product201处于active状态
客户端通过http://product202:50070已经无法访问

在客户端上传文件
hadoop@wyy:/app/hadoop/hadoop220$ bin/hdfs dfs -put /home/mmicky/data/demo.txt /test/.
hadoop@wyy:/app/hadoop/hadoop220$ bin/hdfs dfs -ls /test
Found 4 items
-rw-r--r--   3 hadoop supergroup  258570165 2014-02-23 15:21 /test/2013.txt
-rw-r--r--   3 hadoop supergroup   25721132 2014-02-23 15:28 /test/IP.txt
-rw-r--r--   3 hadoop supergroup    7118627 2014-02-23 16:42 /test/access_log.txt
-rw-r--r--   3 hadoop supergroup       1572 2014-02-23 17:07 /test/demo.txt
然后重启product202
[hadoop@product202 hadoop220]$ sbin/hadoop-daemon.sh start zkfc
[hadoop@product202 hadoop220]$ sbin/hadoop-daemon.sh start namenode
[hadoop@product202 hadoop220]$ bin/hdfs haadmin -failover nn1 nn2
客户端通过http://product201:50070可以发现product201处于standby状态
客户端通过http://product202:50070可以发现product202处于active状态
可以发现客户端新上传的文件在product202中可以浏览。

2:实验二
在product201处于standby之后重启,然后删除hadoop的数据文件来模拟实验环境。
[hadoop@product201 hadoop220]$ rm -rf mydata logs
[hadoop@product201 hadoop220]$ sbin/hadoop-daemon.sh start zkfc
[hadoop@product201 hadoop220]$ bin/hdfs namenode -bootstrapStandby
[hadoop@product201 hadoop220]$ sbin/hadoop-daemon.sh start namenode
客户端通过http://product201:50070可以发现product201处于standby状态
客户端通过http://product202:50070可以发现product202处于active状态
[hadoop@product201 hadoop220]$ bin/hdfs haadmin -failover nn2 nn1
将product201切换成active NN后,通过http://product201:50070可以浏览HDFS中的文件。

TIPS:
bin/hdfs namenode -bootstrapStandby只是在最初同步元数据的时候使用

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值