安裝方式:偽分布式,讓程序跑在一台機器上,只是埠不一樣
文件:此處上傳hadoop的tar包
說明:如果有多個機器,一行乙個
注意:只需要格式化一次即可
方式一:jps方式二:通過web ui檢視hdfs webui埠是50070主節點:sbin/hadoop-daemon.sh
start namenode
從節點:sbin/hadoop-daemon.sh
start datanode
對於分布式資源管理和任務排程框架來說幫助命令;
bin/hdfs dfs
建立目錄
bin/hdfs dfs -mkdir -p /datas/tmp
上傳檔案:linux -》hdfs
bin/hdfs dfs -put /opt/datas/wordcount /datas/tmp/
列舉目錄檔案:
bin/hdfs dfs -ls /datas/
檢視檔案內容
bin/hdfs dfs -cat /datas/tmp/wordcount
刪除檔案
bin/hdfs dfs -rm -r -f /datas/tmp/wordcount
bin/hdfs dfs -
get /datas/tmp/wordcount /opt/modules/
在yarn上面能夠執行很多種應用程式
並行資料處理框架
基於記憶體分布式計算框架
實時流式計算框架
分析資料,比mapreduce速度快
指定nodemanager執行在那些機器上,在配置hdfs的時候,已經配置了,
程式執行在yarn,讀取hdfs上的資料進行處理主節點
sbin/yarn-daemon.sh
start resourcemanager
從節點sbin/yarn-daemon.sh
vi /datas/tmp/wordcount
hadoop框架給我們提供了測試程式
/opt/modules/hadoop-2.7.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar
程式提交到yarn上執行只有一種方式:bin/yarn jar
bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar wordcount /datas/tmp/wordcount /datas/mapreduce/output1
(1)主機名:8088
(2)hdfs 主機名: 50070
程序啟動不了,控制沒有報什麼錯誤,這個時候,我們只能通過檢視日誌的方式找到問題。
日誌檔案目錄:$/logs
檔名:主鍵模組的名稱-使用者名稱-服務名稱-主機名
hadoop 日誌引數
1 mapreduce執行日誌引數 預設設定,訪問在hdfs上,重啟後將丟失,可通過mapred site.xml修改路徑設定 分為歷史日誌引數和執行日誌引數 mapreduce.jobhistory.done dir mapreduce.jobhistory.intermediate done d...
Hadoop日誌介紹
1 hadoop日誌路徑 opt software hadoop 2.8.1 logs 2 日誌介紹 3 namenode報錯,如何查詢問題所在?1 定位到日誌 tail f hadoop root namenode hadoop001.log 2 開啟另外乙個會話,清空日誌檔案,cat dev n...
hadoop日誌聚合
一 在yarn site.xml檔案中新增日誌監控支援 該配置中新增下面的配置 5二 在mapred site.xml檔案中新增日誌服務的配置 該配置檔案中新增如下配置 若是有了的話,無需再次新增 mapreduce.framework.name yarn mapreduce.jobhistroy....