hadoop伪分布下 namenode或datanode无法启动解决

作者 zhan-bin 日期 2018-06-26
hadoop伪分布下 namenode或datanode无法启动解决

hadoop伪分布下 namenode或datanode无法启动解决

作者:Zhan-bin
日期:2018-6-26

解决过程

这里我安装的是ubantu16.04和hadoop2.9.1
有时候我们进行namenode格式化或者其他误操作之后会使namenode和datanode的clusterID不一样,这样的话就会造成这两个节点的其中一个无法启动。

这里仅是namenode和datenode 的clusterID不一样的情况下的解决办法。
进入到hadoop安装目录,这里我的安装目录是 /usr/local/hadoop 下面以这个做示例

1
cd /usr/local/hadoop

如图:
1
然后分别执行

1
vi ./tmp/dfs/name/current/VERSION

2

1
vi ./tmp/dfs/data/current/VERSION

3

对比两个节点的clusterID , 如果不一样则将Datanode的clusterID改为和Namenode的一样。
不会用vim的请参考:常用的vim操作命令
执行

1
./sbin/stop-dfs.sh

关闭节点,在重新开启即可。

1
./sbin/start-dfs.sh