core-site.xml的配置
fs.defaultfs
hdfs://hadoop101:9000
9000埠,怎們會報無法連線8020埠的錯誤?看了好多部落格,排除防火牆的原因,終於自己想到了原因並解決了這個bug。
主機裝了兩種版本的hadoop,apache版和cdh版,兩個版本的hdfs埠衝突,apache版的是9000,cdh版的是8020,修改cdh版的hdfs埠為9000即可!
儲存後,再輸入hdfs dfs -ls / 沒有異常
hadoop拒絕遠端連線解決辦法
我在主機上配置好hadoop之後,開啟hadoop服務,在同乙個區域網下的另一台主機使用eclipse連線hadoop,雖然建立連線成功,但是進行上傳檔案的時候會報如下錯誤 org.apache.hadoop.security.accesscontrolexception org.apache.ha...
Hadoop之Flume採集檔案到hdfs
內容如下 定義三大元件的名稱,myagent可以自己定義 myagent.sources source1 myagent.sinks sink1 myagent.channels channel1 配置source元件 myagent.sources.source1.type spooldir 定義...
ssh連線拒絕
ssh connect to host localhost port 22 connection refused 原因 ssh server未安裝或者未啟動 這個問題可用2條語句一次性解決。yum y remove openssh server openssh client yum y instal...