HDFS HA系列实验之七(NN故障转移处理)

NN是HDFS的核心,一旦破坏,hadoop整个系统将瘫痪。hadoop2.2.0提供了NN HA,提高了NN的可用性。但如果发生了NN故障转移,那么需要处理故障点。本实验主要是针对NN故障转移的几种情况的处理: 实验一:原Active NN意外挂机或JVM溢出等原因造成,但原Active NN文件系统完好 实验二:原Active NN元数据损坏或重新部署新的NN
本实验环境搭建指导: HDFS HA系列实验之二:HA+JournalNode+zookeeper 本实验相关的hadoop配置文件下载(HA+JN+ZK+proxy) : 根据上面相关资料重新配置HA+JournalNode+zookeeper环境,并格式化后启动,然后使用物理机192.168.100.111(机器名wyy)作为客户端来访问集群。 [hadoop@product202 ~]$ /app/hadoop/zookeeper345/bin/zkServer.sh start [hadoop@product202 ~]$ /app/hadoop/hadoop220/sbin/hadoop-daemon.sh start journalnode [hadoop@product203 ~]$ /app/hadoop/zookeeper345/bin/zkServer.sh start [hadoop@product203 ~]$ /app/hadoop/hadoop220/sbin/hadoop-daemon.sh start journalnode [hadoop@product204 ~]$ /app/hadoop/zookeeper345/bin/zkServer.sh start [hadoop@product204 ~]$ /app/hadoop/hadoop220/sbin/hadoop-daemon.sh start journalnode
[hadoop@product201 ~]$ cd /app/hadoop/hadoop220/ [hadoop@product201 hadoop220]$ bin/hdfs namenode -format [hadoop@product201 hadoop220]$ bin/hdfs zkfc -formatZK [hadoop@product201 hadoop220]$ sbin/hadoop-daemon.sh start zkfc [hadoop@product202 ~]$ cd /app/hadoop/hadoop220/ [hadoop@product202 hadoop220]$ sbin/hadoop-daemon.sh start zkfc [hadoop@product201 hadoop220]$ sbin/hadoop-daemon.sh start namenode [hadoop@product202 hadoop220]$ bin/hdfs namenode -bootstrapStandby [hadoop@product202 hadoop220]$ sbin/hadoop-daemon.sh start namenode [hadoop@product201 hadoop220]$ sbin/hadoop-daemons.sh start datanode

1:实验一 客户端通过http://product201:50070可以发现product201处于active状态 客户端通过http://product202:50070可以发现product202处于standby状态
重启product201(因为没有zookeeper和JN进程在跑,可以直接重新启动来模拟机器故障),这时: 客户端通过http://product201:50070已经无法访问 客户端通过http://product202:50070可以发现product202处于active状态 此时文件操作正常
启动product201的NN守护进程 [hadoop@product201 hadoop220]$ sbin/hadoop-daemon.sh start zkfc [hadoop@product201 hadoop220]$ sbin/hadoop-daemon.sh start namenode 客户端通过http://product201:50070可以发现product201处于standby状态 客户端通过http://product202:50070可以发现product202处于active状态 此时文件操作正常
在product202上kill DFSZKFailoverController进程和namenode进程,模拟product202故障, [hadoop@product202 hadoop220]$ jps 2374 NameNode 2472 JournalNode 2558 DFSZKFailoverController 2930 Jps 1706 QuorumPeerMain [hadoop@product202 hadoop220]$ kill 2374 [hadoop@product202 hadoop220]$ kill 2558 [hadoop@product202 hadoop220]$ jps 2472 JournalNode 2998 Jps 1706 QuorumPeerMain 这时: 客户端通过http://product201:50070可以发现product201处于active状态 客户端通过http://product202:50070已经无法访问
在客户端上传文件 hadoop@wyy:/app/hadoop/hadoop220$ bin/hdfs dfs -put /home/mmicky/data/demo.txt /test/. hadoop@wyy:/app/hadoop/hadoop220$ bin/hdfs dfs -ls /test Found 4 items -rw-r--r--3 hadoop supergroup258570165 2014-02-23 15:21 /test/2013.txt -rw-r--r--3 hadoop supergroup25721132 2014-02-23 15:28 /test/IP.txt -rw-r--r--3 hadoop supergroup7118627 2014-02-23 16:42 /test/access_log.txt -rw-r--r--3 hadoop supergroup1572 2014-02-23 17:07 /test/demo.txt 然后重启product202 [hadoop@product202 hadoop220]$ sbin/hadoop-daemon.sh start zkfc [hadoop@product202 hadoop220]$ sbin/hadoop-daemon.sh start namenode [hadoop@product202 hadoop220]$ bin/hdfs haadmin -failover nn1 nn2 客户端通过http://product201:50070可以发现product201处于standby状态 客户端通过http://product202:50070可以发现product202处于active状态 可以发现客户端新上传的文件在product202中可以浏览。
2:实验二 在product201处于standby之后重启,然后删除hadoop的数据文件来模拟实验环境。 [hadoop@product201 hadoop220]$ rm -rf mydata logs [hadoop@product201 hadoop220]$ sbin/hadoop-daemon.sh start zkfc [hadoop@product201 hadoop220]$ bin/hdfs namenode -bootstrapStandby [hadoop@product201 hadoop220]$ sbin/hadoop-daemon.sh start namenode 客户端通过http://product201:50070可以发现product201处于standby状态 客户端通过http://product202:50070可以发现product202处于active状态 [hadoop@product201 hadoop220]$ bin/hdfs haadmin -failover nn2 nn1 将product201切换成active NN后,通过http://product201:50070可以浏览HDFS中的文件。
TIPS: bin/hdfs namenode -bootstrapStandby只是在最初同步元数据的时候使用

    推荐阅读