1
、hadoop啟動或停止
1)第一種方式
分別啟動
hdfs
和mapreduce
,命令如下:
啟動:$ start-dfs.sh
$ start-mapred.sh
停止:$ stop-mapred.sh
$ start-dfs.sh 2
)第二方式
全部啟動或者全部停止
啟動:start-all.sh
啟動順序:
namenode
、datanode
、secondarynamenode
、jobtracker
、tasktracker
停止:stop-all.sh
停止順序:
jobtracker
、tasktracker
、namenode
、datanode
、secondarynamenode 3)
第三種啟動方式
每個守護進行逐一進行啟動,啟動順序如下:
namenode
、datanode
、secondarynamenode
、jobtracker
、tasktracker
命令如下:
啟動:hadoop-daemon.sh start namenode
hadoop-daemon.sh start datanode
hadoop-daemon.sh start secondarynamenode
hadoop-daemon.sh start jobtracker
hadoop-daemon.sh start tasktracker
停止:hadoop-daemon.sh stop jobtracker
hadoop-daemon.sh stop tasktracker
hadoop-daemon.sh stop namenode
hadoop-daemon.sh stop datanode
hadoop-daemon.sh stop secondarynamenode
2
、分析啟動
shell
指令碼 1
)檢視start-all.sh
指令碼:第一點:
shell
指令碼,僅僅在主節點上執行。
第二點:首先啟動
dfs檔案系統的守護程序,再啟動
mapreduce
框架的守護程序
第三點:啟動
hdfs
檔案系統守護程序時,呼叫
start-dfs.shshell
指令碼;啟動
mapreduce
守護程序時,呼叫
start-mapred.shshell
指令碼。2
)檢視start-dfs.sh
指令碼:第一點:此指令碼執行在
dfs檔案系統的主節點上。
第二點:如果先啟動
datanode
守護程序,在沒有啟動
namenode
守護程序之前,
datanode
日誌檔案一直出現連線
namenode
錯誤資訊。
第三點:啟動
hdfs
守護程序的順序
第四點:
namenode
啟動,呼叫的是
hadoop-daemon.sh
指令碼;datanode
和secondarynamenode
啟動呼叫的是
hadoop-daemons.sh
指令碼。
09 Hadoop啟動或停止的三種方式及啟動指令碼
1 hadoop啟動或停止 1 第一種方式 分別啟動 hdfs 和mapreduce 命令如下 啟動 start dfs.sh start mapred.sh 停止 stop mapred.sh start dfs.sh 2 第二方式 全部啟動或者全部停止 啟動 start all.sh 啟動順序 ...
Hadoop啟動停止的三種方式
1 分別啟動hdfs和mapreduce,命令如下 啟動 start dfs.sh start mapred.sh 停止 stop mapred.sh stop dfs.sh 2 全部啟動或停止 啟動 start all.sh 啟動順序 namenode datanode secondaryname...
Hadoop的啟動和停止說明
sbin start all.sh 啟動所有的hadoop守護程序。包括namenode secondary namenode datanode resourcemanager nodemanager sbin stop all.sh 停止所有的hadoop守護程序。包括namenode secon...