通過jps檢視服務發現,缺少datanode
執行檔案系統格式化時(即執行命令$ bin/hadoop namenode -format 後),會在namenode資料資料夾(即配置檔案中dfs.name.dir在本地系統的路徑)中保
存乙個current/version(我的路徑為 usr/local/hadoop/tmp/dfs/name/current/version,其中hadoop為建立虛擬機器時為虛擬機器系統所取的使用者名稱)檔案,
記錄namespaceid,標識了所格式化的namenode的版本。如果我們頻繁的格式化namenode,那麼datanode中儲存(即配置檔案中dfs.data.dir在本地系統的路徑)的
current/version檔案(路徑為usr/local/hadoop/tmp/dfs/data/current/version)只是你第一次格式化時儲存的namenode的id,因此就會造成namdenode 的
namespaceid 與 datanode的namespaceid 不一致,從而導致namenode和 datanode的斷連。
解決方法一:(推薦)
刪除datanode的所有資料及將集群中每個datanode節點的/dfs/data/current中的version刪除,然後重新執行hadoop namenode -format進行格式化,重啟集群,錯誤消失。
解決方法二:
將name/current下的version中的clusterid複製到data/current下的version中,覆蓋掉原來的clusterid
hadoop偽分布式
首先是本機模式的搭建,如 1 hdfs dfs ls 檢視本地分布式檔案系統,查詢結果為你本機linux檔案系統,說明你的本地模式已經搭建成功 2 進入安裝目錄hadoop資料夾下,進入etc hadoop下對四個配置檔案進行配置 core site.xml hdfs site.xml mapred...
hadoop偽分布式
一 安裝jdk 2 配置環境變數 配置成功 二 ssh免密碼登入 三 hadoop偽分布式配置 2 解壓 3 修改配置檔案 修改為jdk安裝位置 hadoop.tmp.dir file swy bigdata hadoop tmp abase for other temporary director...
hadoop偽分布式搭建
因為hadoop偽分布式我已在本地搭建並且執行成功。為了加快學習不足同時分享搭建。直接將不足貼出來,如有不同意見還忘評價共同提公升。hadoop 偽分布模式 hdfs yarn 另外補充下 hadoop2.0之後不包含mapreduce 環境搭建準備 1,vmware 安裝 如果你使用的事virtu...