這篇文章主要為大家展示了“hadoop-001-啟動hadoop 2.5.2 遇到的datanode啟動失敗怎么辦”,內容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領大家一起研究并學習一下“hadoop-001-啟動hadoop 2.5.2 遇到的datanode啟動失敗怎么辦”這篇文章吧。
東平ssl適用于網站、小程序/APP、API接口等需要進行數據傳輸應用場景,ssl證書未來市場廣闊!成為創(chuàng)新互聯建站的ssl證書銷售渠道,可以享受市場價格4-6折優(yōu)惠!如果有意向歡迎電話聯系或者加微信:028-86922220(備注:SSL證書合作)期待與您的合作!
打開日志文件
localhost: starting datanode, logging to /opt/hadoop/logs/hadoop-root-datanode-localhost.out
發(fā)現報錯
2016-01-17 11:43:53,019 INFO org.apache.hadoop.ipc.Server: IPC Server listener on 50020: starting 2016-01-17 11:43:54,455 INFO org.apache.hadoop.hdfs.server.common.Storage: Data-node version: -55 and name-node layout version: -57 2016-01-17 11:43:54,570 INFO org.apache.hadoop.hdfs.server.common.Storage: Lock on /opt/hadoop/data/hadoop-root/dfs/data/in_use.lock acquired by nodename 4816@localhost 2016-01-17 11:43:54,574 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000. Exiting. java.io.IOException: Incompatible clusterIDs in /opt/hadoop/data/hadoop-root/dfs/data: namenode clusterID = CID-6f1b2a1b-2b93-4282-ac26-9aca48ec99ea; datanode clusterID = CID-5a313ef8-c96f-47bf-a7f9-3945ff5d9835 at org.apache.hadoop.hdfs.server.datanode.DataStorage.doTransition(DataStorage.java:477) at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:226) at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:254) at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:975) at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:946) at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:278) at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:220) at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:812) at java.lang.Thread.run(Thread.java:662) 2016-01-17 11:43:54,576 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Ending block pool service for: Block pool (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000 2016-01-17 11:43:54,733 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Removed Block pool (Datanode Uuid unassigned) 2016-01-17 11:43:56,734 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Exiting Datanode 2016-01-17 11:43:56,738 INFO org.apache.hadoop.util.ExitUtil: Exiting with status 0 2016-01-17 11:43:56,743 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG:
|
從日志上看,加粗的部分說明了問題
datanode的clusterID 和 namenode的clusterID 不匹配。
解決辦法:
根據日志中的路徑,/opt/hadoop/data/hadoop-root/dfs/
能看到 data和name兩個文件夾,
由 hdfs-site.xml 默認配置文件可以看出,data 和 name 文件目錄依賴 core-site.xml 的 hadoop.tmp.dir 參數
dfs.namenode.name.dir | file://${hadoop.tmp.dir}/dfs/name |
dfs.datanode.data.dir | file://${hadoop.tmp.dir}/dfs/data |
本系統(tǒng)
hadoop.tmp.dir配置如下
hadoop.tmp.dir /opt/hadoop/data/hadoop-${user.name} |
將name/current下的VERSION中的clusterID復制到data/current下的VERSION中,覆蓋掉原來的clusterID
讓兩個保持一致
然后重啟,啟動后執(zhí)行jps,查看進程
[root@localhost hadoop]# jps
9518 SecondaryNameNode
9291 DataNode
9912 Jps
9138 NameNode
7626 ResourceManager
7797 NodeManager
出現該問題的原因:在第一次格式化dfs后,啟動并使用了hadoop,后來又重新執(zhí)行了格式化命令(hdfs namenode -format),這時namenode的clusterID會重新生成,而datanode的clusterID 保持不變。
以上是“hadoop-001-啟動hadoop 2.5.2 遇到的datanode啟動失敗怎么辦”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注創(chuàng)新互聯行業(yè)資訊頻道!
新聞名稱:hadoop-001-啟動hadoop2.5.2遇到的datanode啟動失敗怎么辦
網站網址:
http://weahome.cn/article/pegjjj.html