NameNode故障处理

方法一:将SecondaryNameNode中数据拷贝到NameNode存储数据的目录;

 

1. kill -9 NameNode进程

2. 删除NameNode存储的数据(/opt/module/hadoop-2.7.2/data/tmp/dfs/name)

[*****@hadoop102 hadoop-2.7.2]$ rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/name/*

3. 拷贝SecondaryNameNode中数据到原NameNode存储数据目录

[*****@hadoop102 dfs]$ scp -r *****@hadoop104:/opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary/* ./name/

4. 重新启动NameNode

[*****@hadoop102 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode

方法二:使用-importCheckpoint选项启动NameNode守护进程,从而将SecondaryNameNode中数据拷贝到NameNode目录中。

  1. 修改hdfs-site.xml中的

<property>

  <name>dfs.namenode.checkpoint.period</name>

  <value>120</value>

</property>

 

<property>

  <name>dfs.namenode.name.dir</name>

  <value>/opt/module/hadoop-2.7.2/data/tmp/dfs/name</value>

</property>

2.  kill -9 NameNode进程

3.    删除NameNode存储的数据(/opt/module/hadoop-2.7.2/data/tmp/dfs/name)

[*****@hadoop102 hadoop-2.7.2]$ rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/name/*

4.    如果SecondaryNameNode不和NameNode在一个主机节点上,需要将SecondaryNameNode存储数据的目录拷贝到NameNode存储数据的平级目录,并删除in_use.lock文件

[*****@hadoop102 dfs]$ scp -r *****@hadoop104:/opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary ./

 

[*****@hadoop102 namesecondary]$ rm -rf in_use.lock

 

[*****@hadoop102 dfs]$ pwd

/opt/module/hadoop-2.7.2/data/tmp/dfs

 

[*****@hadoop102 dfs]$ ls

data  name  namesecondary

5.    导入检查点数据(等待一会ctrl+c结束掉)

[*****@hadoop102 hadoop-2.7.2]$ bin/hdfs namenode -importCheckpoint

6.    启动NameNode

[*****@hadoop102 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章