itcast01上:
啟動hadoop集群:
cd /itcast/hadoop-2.6.0/sbin/
./start-dfs.sh
啟動yarn:
./start-yarn.sh
itcast02上:
啟動resourcemanager
/itcast/hadoop-2.6.0/sbin/yarn-daemon.sh start resourcemanager
itcast01上:
啟動spark集群:
cd /itcast/spark-1.3.1-bin-hadoop2.6/sbin/
./start-all.sh
itcast02上啟動spark備用 master節點
/itcast/spark-1.3.1-bin-hadoop2.6/sbin/start-master.sh
itcast01上:啟動spark shell
/itcast/spark-1.3.1-bin-hadoop2.6/sbin/start-master.sh
bin/spark-shell –master
如果配置了sparkha,比如zookeeper,在使用spark-submit提交任務時,則需要指定兩個master 的資訊:spark://itcast01:7077,itcast02:7077
namenode的webui埠:50070
yarn的web埠:8088
spark集群的web埠:8080
spark-job監控埠:4040
oracle rac集群關閉和啟動操作命令
1.關閉資料庫 oracle使用者執行srvctl命令 srvctl stop status database d orcl 停止 檢視所有節點上的例項 2.停止集群服務,必須以root使用者執行crsctl命令 crsctl stop cluster all 或者.crsctl stop clus...
Hadoop 啟動 停止集群和節點的命令
集群啟動 停止hadoop集群 start all.sh stop all.sh 1 啟動namenode,datanode 2 啟動journalnode,journalnode在hdfs site.xml中指定edits log儲存的位置,主備namenode共享資料,方便同步 3 啟動dfsz...
Hadoop 啟動 停止集群和節點的命令
集群 啟動 停止hadoop集群 start all.sh stop all.sh 1 啟動namenode,datanode 2 啟動journalnode,journalnode在hdfs site.xml中指定edits log儲存的位置,主備namenode共享資料,方便同步 3 啟動dfs...