温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

hadoop-001-启动hadoop 2.5.2 遇到的datanode启动失败怎么办

发布时间:2021-12-09 15:00:32 来源:亿速云 阅读:199 作者:小新 栏目:云计算

这篇文章主要为大家展示了“hadoop-001-启动hadoop 2.5.2 遇到的datanode启动失败怎么办”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“hadoop-001-启动hadoop 2.5.2 遇到的datanode启动失败怎么办”这篇文章吧。

打开日志文件 

localhost: starting datanode, logging to /opt/hadoop/logs/hadoop-root-datanode-localhost.out

发现报错 

2016-01-17 11:43:53,019 INFO org.apache.hadoop.ipc.Server: IPC Server listener on 50020: starting
2016-01-17 11:43:54,455 INFO org.apache.hadoop.hdfs.server.common.Storage: Data-node version: -55 and name-node layout version: -57
2016-01-17 11:43:54,570 INFO org.apache.hadoop.hdfs.server.common.Storage: Lock on /opt/hadoop/data/hadoop-root/dfs/data/in_use.lock acquired by nodename 4816@localhost
2016-01-17 11:43:54,574 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool <registering> (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000. Exiting. 
java.io.IOException: Incompatible clusterIDs in /opt/hadoop/data/hadoop-root/dfs/data: namenode clusterID = CID-6f1b2a1b-2b93-4282-ac26-9aca48ec99ea; datanode clusterID = CID-5a313ef8-c96f-47bf-a7f9-3945ff5d9835
at org.apache.hadoop.hdfs.server.datanode.DataStorage.doTransition(DataStorage.java:477)
at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:226)
at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:254)
at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:975)
at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:946)
at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:278)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:220)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:812)
at java.lang.Thread.run(Thread.java:662)
2016-01-17 11:43:54,576 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Ending block pool service for: Block pool <registering> (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000
2016-01-17 11:43:54,733 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Removed Block pool <registering> (Datanode Uuid unassigned)
2016-01-17 11:43:56,734 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Exiting Datanode
2016-01-17 11:43:56,738 INFO org.apache.hadoop.util.ExitUtil: Exiting with status 0
2016-01-17 11:43:56,743 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG:     


从日志上看,加粗的部分说明了问题

datanode的clusterID 和 namenode的clusterID 不匹配。

解决办法:

根据日志中的路径,/opt/hadoop/data/hadoop-root/dfs/

能看到 data和name两个文件夹,

由 hdfs-site.xml 默认配置文件可以看出,data 和 name 文件目录依赖 core-site.xml 的 hadoop.tmp.dir 参数 

dfs.namenode.name.dirfile://${hadoop.tmp.dir}/dfs/name
dfs.datanode.data.dirfile://${hadoop.tmp.dir}/dfs/data

本系统  hadoop.tmp.dir配置如下

<property>

        <name>hadoop.tmp.dir</name>

        <value>/opt/hadoop/data/hadoop-${user.name}</value>

 </property>

将name/current下的VERSION中的clusterID复制到data/current下的VERSION中,覆盖掉原来的clusterID

让两个保持一致

然后重启,启动后执行jps,查看进程

[root@localhost  hadoop]# jps
9518 SecondaryNameNode
9291 DataNode
9912 Jps
9138 NameNode
7626 ResourceManager
7797 NodeManager


出现该问题的原因:在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。

以上是“hadoop-001-启动hadoop 2.5.2 遇到的datanode启动失败怎么办”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI