hadoop集群之datenode無法啟動解決辦法
我們在啟動hadoop集群的時候,通過jps檢視程序,發現namenode rm和secondary namenode都有,但datanode沒有啟動,然後 datanode的啟動日誌如下
原因:是多次format namenode導致的namenode和datanode的id不一致導致的。
當format過後再啟動hadoop,hadoop嘗試建立新的current目錄,但是由於已存在current目錄,導致建立失敗,最終引起datanode節點的datanode程序啟動失敗,從而引起hadoop集群完全啟動失敗。
解決辦法:
刪除tmp/dfs/data下的current資料夾,然後重新啟動hadoop。
這樣子就ok啦
Hadoop系列之八 Hadoop集群
1 合併mapreduce集群與hdfs集群 在排程執行乙個作業時,將map任務等直接執行於要處理的資料所儲存的hdfs的資料節點上,可避免大量的資料傳輸,實現資料處理的本地性,進而大大提高整個過程的完成效率,這也正是hadoop集群的部署方式。如下圖所示。在乙個小於50個節點的小規模集群中,可以將...
Hadoop系列之八 Hadoop集群
1 合併mapreduce集群與hdfs集群 在排程執行乙個作業時,將map任務等直接執行於要處理的資料所儲存的hdfs的資料節點上,可避免大量的資料傳輸,實現資料處理的本地性,進而大大提高整個過程的完成效率,這也正是hadoop集群的部署方式。如下圖所示。在乙個小於50個節點的小規模集群中,可以將...
Hadoop系列之八 Hadoop集群
1 合併mapreduce集群與hdfs集群 在排程執行乙個作業時,將map任務等直接執行於要處理的資料所儲存的hdfs的資料節點上,可避免大量的資料傳輸,實現資料處理的本地性,進而大大提高整個過程的完成效率,這也正是hadoop集群的部署方式。如下圖所示。在乙個小於50個節點的小規模集群中,可以將...