啟動historyserver
spark history server可以很好地解決上面的問題。
通過配置,我們可以在spark應用程式執行完成後,將應用程式的執行資訊寫入指定目錄,而spark history server可以將這些資訊裝在並以web形式供使用者瀏覽。
下面以spark on yarn模式為例進行配置說明
採用如下命令建立用於儲存spark events的目錄
hadoop fs -mkdir /tmp/spark-logs
hadoop fs -chmod -r 777 /tmp/spark-logs
在$/conf目錄下的spark-defaults.conf配置檔案中新增如下配置:
# configuring spark history server
spark.eventlog.enabled true
spark.eventlog.dir hdfs://hadoopsvr1:8020/tmp/spark-logs
spark.yarn.historyserver.address hadoopsvr1:18080
在$/conf目錄下的spark-env.sh配置檔案中新增如下配置:
export spark_history_opts=
"-dspark.history.ui.port=18080 -dspark.history.fs.logdirectory=hdfs://hadoopsvr1:8020/tmp/spark-logs -dspark.history.fs.cleaner.enabled=true"
相關配置引數可參考:
啟動spark的start-all.sh後,再執行start-history-server.s**件即可啟動歷史服務。
start-history-server.sh
應用程式執行時的4040和歷史記錄的18080webui配合使用,可以讓我們在執行spark應用的時候隨時監測程式執行狀態,並作相應的優化和調節,效果顯著。 spark history server配置使用
這時候就需要為集群配置spark history server了。注 可以是主機名,如master,也可以是主機名對應的ip。spark history server可以很好地解決上面的問題。通過配置,我們可以在spark應用程式執行完成後,將應用程式的執行資訊寫入知道目錄,而spark histo...
spark history server配置使用
這時候就需要為集群配置spark history server了。注 可以是主機名,如master,也可以是主機名對應的ip。spark history server可以很好地解決上面的問題。通過配置,我們可以在spark應用程式執行完成後,將應用程式的執行資訊寫入知道目錄,而spark histo...
Spark History Server 沒有生效
spark 提供了 web ui 來對 spark 應用進行監控。只要開啟 http 4040 就可以看到該頁面。如果有多個 sparkcontext 執行在同乙個主機上,將會從埠 4040,4041,4042 依次占用。不過預設情況下,只在有應用執行期間這些資訊才會存在。應用執行完畢,就無法檢視了...