環境準備
安裝配置hadoop
指令碼準備:批分發(xcall.sh)和批同步(xsync.sh)
停掉所有的hadoop程序(保證沒有任何程序在執行)
$> stop-all.sh
//刪除所有日誌
$> xcall.sh "rm -rf /soft/hadoop/logs/*"
//刪除所有本地檔案
$> xcall.sh "rm -rf /home/centosmin0/hadoop/*"
$> hadoop-daemon.sh start journalnode
$> hadoop namenode -format
$> scp -r ~/hadoop/* centosmin0@s205:/home/centosmin0/hadoop
$> hadoop-daemon.sh start namenode
$> hdfs namenode -bootstrapstandby
$> hdfs namenode -initializesharededits
假如出現被鎖住無法引導的情況,需要刪除 /home/centosmin0/hadoop/dfs/name 下的 in_use.lock 檔案:
啟動所有資料節點
$> hadoop-daemons.sh start datanode
$> hadoop-daemon.sh start namenode
名稱節點的自動容災(ha)$> stop-all.sh
//配置hdfs-site.xml,啟用自動容災
[hdfs-site.xml]
dfs.ha.automatic-failover.enabled
true
//配置core-site.xml,指定zk的連線位址
[core-site.xml]
ha.zookeeper.quorum
s201:2181,s202:2181,s203:2181
//分發檔案到其他主機
$> xsync.sh hdfs-site.xml
$> xsync.sh core-site.xml
$> zkserver.sh start
$> hdfs zkfc -formatzk
//進入zk客戶端
$> zkcli.sh
$> start-dfs.sh
s201和s205開啟了容災處理器程序:dfszkfailovercontroller
檢視web,s205主機變為了啟用狀態
自動切換為s201:
配置資源管理器(rm)的自動容災(ha)
yarn.resourcemanager.ha.enabled
true
yarn.resourcemanager.cluster-id
cluster1
yarn.resourcemanager.ha.rm-ids
rm1,rm2
yarn.resourcemanager.hostname.rm1
s201
yarn.resourcemanager.hostname.rm2
s205
s201:8088
s205:8088
yarn.resourcemanager.zk-address
s201:2181,s202:2181,s203:2181
[s201]
$> start-yarn.sh
[s205]
$>yarn-daemon.sh start resourcemanager
s201的資源管理器:192.168.32.201:8088
s205的資源管理器:192.168.32.205:8088
各節點程序情況
Zookeeper高可用集群搭建部署
ath path path zk home bin 重新整理環境變數 source etc profile 二,配置服務編號 zookeeper集群 在 opt zookeeper目錄下建立乙個myid的檔案。示例一 root zk1 zookeeper touch myid root zk1 zo...
高可用集群
高可用集群主要實現自動偵測 auto detect 故障 自動切換 故障轉移 failover 和自動恢復 failback 簡單來說就是,用高可用集群軟體實現故障檢查和故障轉移 故障 備份主機切換 的自動化,當然像負載均衡 dns分發也可提供高可性。active passive 主備模型 acti...
Keepalived Nginx高可用集群
安裝環境 centos6.6 x64 nginx版本 1.9.3 keepalived版本 1.2.18 ipvip 主節點192.168.11.21 192.168.11.20 備節點192.168.11.22 192.168.11.20 1.1 安裝openssl tar zxvf openss...