作為乙個hadoop的初學者,hd最近在一直在踩坑,好不容易把網路配置好了,結果在datanode連線中又掛了
hdfs-site.xml的配置為
core-site.xml的配置為
叢機(hdp-02)啟動jps後
發現在/usr./lhadoop/hadoop-2.8.3/hdpdata/data資料夾下沒有生成current資料夾
再看一下log檔案,發現無法連線到namenode
執行一下hdfs dfsdamin -report
發現顯示拒絕訪問
主要解決方案
1.是否在主機上未關閉防火牆導致叢機無法訪問主機
通過sudo ufw status來檢視自己的防火牆狀態
如果防火牆是開啟的,那麼將它關掉
sudo ufw disable
我的防火牆是關閉的,所以並不是這個原因
2.主機的埠9000被關閉,無法訪問
通過netstat -tpnl來檢視埠占用
發現9000的位址有問題
然後檢視/etc/hosts檔案來檢視配置
由於我的主機與叢機之間的網域名稱對映全都做好了,所以只能是埠問題
開啟發現
我的127.0.1.1,即9000的埠只能自己本機訪問,叢機無法訪問(這是hadoop的安全措施)
通過修改後
檢視埠資訊
發現9000的埠號的本地位址是我的主機的ip位址,其他的叢機可以訪問,問題得到解決
DataNode無法啟動
關於hadoop集群中第二次啟動時,datanode沒有啟動的解決辦法 第一次啟動時沒有問題 第二次啟動時會有檔案殘留 產生乙個新的namenode檔案 id 就不認識以前的namenode了 導致集群不能正常啟動 解決辦法 在格式化之前,刪除datanode裡面的資訊 預設在 tmp,如果配置該目...
Hadoop無法啟動DataNode
問題詳述 當我多次通過以下指令格式化namenode之後,格式化namenode bin hdfs namenode format導致我在jps查詢時發現datanode無法啟動 問題原因 多次進行namenode格式化,導致 namenode 和 datanode 的集群 id 不匹配 datan...
Hadoop中datanode無法啟動
1.環境描述 虛擬機器10,centos6.4,偽分布式安裝hadoop。2.問題描述 出現datanode無法啟動。3.錯誤一 指定的檔案目錄許可權不符 檢視 datanode 啟動日誌 cat home hadoop hadoop 0.20.203.0 logs hadoop hadoop da...