yarn.resourcemanager.hostname<
/name>
node01<
/value>
<
/property>
yarn.nodemanager.aux-services<
/name>
mapreduce_shuffle<
/value>
<
/property>
<
!-- 關閉yarn記憶體檢查 --
>
yarn.nodemanager.pmem-check-enabled<
/name>
false
<
/value>
<
/property>
yarn.nodemanager.vmem-check-enabled<
/name>
false
<
/value>
<
/property>
<
!-- 如果開啟如下配置則需要開啟spark歷史伺服器
/export/servers/hadoop/sbin/start-yarn.sh
如果要整合yarn歷史伺服器和spark歷史伺服器,則還需要如下操作:
/export/servers/hadoop/sbin/mr-jobhistory-daemon.sh start historyserver
spark.yarn.historyserver.address node01:
4000
spark.yarn.jars = hdfs:
//node01:
8020
/sparkjars/*
預設情況下, spark 程式執行完畢關閉視窗後, 就無法再檢視執行記錄的 web ui (4040)了, 通過 historyserver 可以提供乙個服務, 通過讀取日誌檔案, 使得我們可以在程式執行結束後, 依然能夠檢視執行過程
cd /export/servers/spark/conf
cp spark-defaults.conf.template spark-defaults.conf
●修改配置
vim spark-defaults.conf
spark.eventlog.enabled true
spark.eventlog.dir hdfs:
//node01:
8020
/sparklog
●修改spark-env.sh
vim spark-env.sh
export spark_history_opts=
scp -r /export/servers/spark/conf/ @node02:
/export/servers/spark/conf/
scp -r /export/servers/spark/conf/ @node03:
/export/servers/spark/conf/
●重啟集群
/export/servers/spark/sbin/stop-all.sh
/export/servers/spark/sbin/start-all.sh
/export/servers/spark/sbin/start-history-server.sh
●在4000埠檢視歷史日誌(如果載入不出來換瀏覽器試試)
spark 檢視yarn日誌 spark提交任務
standalone模式兩種提交任務方式 standalone client提交任務方式 提交命令 spark submit master spark node1 7077 class org.apache.spark.examples.sparkpi lib spark examples 1.6....
yarn集群無法提交新任務記錄始末
測試通知,hive提交的mr任務卡住乙個小時,無法執行。測試使用的是頁面應用提交的任務,先確定是否是應用的問題。在yarn webui檢視,發現任務已經提交到yarn中,處於accepted狀態。確定應用已經將任務正常提交。檢視ambari介面hive元件,無報錯。在hive客戶端執行簡單查詢命令,...
yarn 集群搭建
啟動步驟 基於ha 集群搭建 ha集群搭建 nn 1 nn 2 dnzk zkfc jnnrs nmnode1 node2 node3 node4 mapreduce.framework.namename yarnvalue property configuration yarn.nodemanag...