最近遇到了乙個問題,執行start-all.sh的時候發現jps一下namenode沒有啟動
每次開機都得重新格式化一下namenode才可以,但這個可不是解決問題的方法啊,
總不能每次啟動就把檔案系統格式化一下吧,這還得了
檢視了一下日誌,發現如下錯誤:
error org.apache.hadoop.hdfs.server.namenode.namenod
e: org.apache.hadoop.hdfs.server.common.inconsistentfsstateexception:
directory /tmp/hadoop-root/dfs/name is in an inconsistent state: storage directory
does not exist or is not accessible.
原來,問題出現在/tmp目錄上,預設的tmp資料夾每次重新開機會被清空,
與此同時namenode的格式化資訊就會丟失,於是我們得重新配置乙個tmp檔案目錄。
在根目錄下建立乙個hadoop_root目錄,mkdir /hadoop_tmp
然後修改hadoop/conf目錄裡面的core-site.xml檔案,加入以下節點:
hadoop.tmp.dir
/hadoop_tmp
a base for other temporary directories.
ok了,重新格式化namenode ./ hadoop namenode -format
然後啟動hadoop ./start-all.sh
執行下jps命令就可以看到namenode了
可以在/etc/rc.local 加入 /usr/local/hadoop-1.1.2/bin/start-all.sh (我的hadoop安裝在/usr/local/下)
這樣hadoop就會隨開機啟動
Hadoop namenode無法啟動
最近遇到了乙個問題,執行start all.sh的時候發現jps一下namenode沒有啟動 每次開機都得重新格式化一下namenode才可以 其實問題就出在tmp檔案,預設的tmp檔案每次重新開機會被清空,與此同時namenode的格式化資訊就會丟失 於是我們得重新配置乙個tmp檔案目錄 首先在h...
Hadoop namenode無法啟動
最近遇到了乙個問題,執行start all.sh的時候發現jps一下namenode沒有啟動 每次開機都得重新格式化一下namenode才可以 其實問題就出在tmp檔案,預設的tmp檔案每次重新開機會被清空,與此同時namenode的格式化資訊就會丟失 於是我們得重新配置乙個tmp檔案目錄 首先在h...
Hadoop namenode無法啟動
最近遇到了乙個問題,執行start all.sh的時候發現jps一下namenode沒有啟動 每次開機都得重新格式化一下namenode才可以 其實問題就出在tmp檔案,預設的tmp檔案每次重新開機會被清空,與此同時namenode的格式化資訊就會丟失 於是我們得重新配置乙個tmp檔案目錄 首先在h...