namenode節點的部署:
部署zookeeper之後的細節:
分別部署hdfs-site.xml和core-site.xml檔案
然後將node1中配置好的部署好的文件分別分發給其他的node節點,命令為:
scp hdfs-site.xml core-site.xml 192.168.198.22:`pwd`
啟動node1上邊的namenode,命令為:
hadoop-daemon.sh start namenode
在namenode2上邊執行命令:hdfs namenode -bootstrapstandby
接著在node1上執行普通格式化:
hdfs namenode -format
啟動node1:
start-dfs.sh
然後啟動zkfc和zookeeper集群。
訪問192.168.198.21:/50070和192.168.198.22:/50070,分別出現active和standby
想要殺死某乙個集群,先jps一下,顯示號碼,然後:kill -9 號碼。
最後補充:
啟動zookeeper集群的命令:zkserver start ,檢視zookeeper集群的命令:zkserver status
啟動namenode的命令:hadoop-daemon.sh start namenode或者hadoop-daemon.sh restart namenode
啟動命令:start-dfs.sh
啟動所有的命令:start-all.sh
監控的命令:tail -f hadoop-root-namenode-nod02.log或者:tail -f access.log
啟動zkfc的命令:hadoop-daemon.sh start zkfc
啟動journalnode的命令:hadoop-daemon.sh restart journalnod
啟動nginx的命令: service nginx restart,service nginx start
登入節點的命令: ssh 192.168.198.23
拷貝的命令:scp id_dsa.pub [email protected]:`pwd`/node02.pub;
scp -r ./sxt/ 192.168.198.22:/opt/
解壓檔案的命令:tar -zxvf 檔名
安裝某一檔案:yum install 檔名 -y
重定向的命令:cat node03.pub >> authorized_keys
登入某一節點,退出的命令;exit
檢視某一檔案:cat access.log(檔名)
刪除某一檔案:rm -r access.log
退出到最初始的狀態目錄:cd
建立資料夾:mkdir 資料夾名
建立深層次的資料夾:mkdir -p /opt/sxt
執行監控的命令:telnet 192.168.198.22:44444(需要提前執行yum install telnet -y)
查詢檔案的位置:whereis access.log
刪除某一檔案:rm -rf 檔名
刪除:rm -rf 檔名
2888是主從模型下的埠號
3888是無主模型下的埠號
yy是複製,p是黏貼,dd是刪除。
pwd是指當前目錄
配置完/etc/profile檔案之後,記得要source ./etc/profile或者執行:. /etc/profile
NameNode節點的增添或刪減
namenode的增添 直接關聯到集群 前提是複製過來的hadoop框架裡原來的hdfs系統存留檔案已經刪除,並且環境已配置好 source etc profile sbin hadoop daemon.sh start sbin yarn daemon.sh start nodemanager 刪...
NameNode節點的公升級 回滾 提交
我記得在前面已經以regular方式為例詳細的講述了有關namenode啟動的過程,在開始本文的重點之前,我覺得還是有必要在簡單的描述一下這個過程 好了,再回到本文將要闡述的重點吧 namenode節點的公升級 回滾 提交,這一步實際上只發生在上面過程的第一步 載入fsimage editlog。前...
kafka單節點多broker部署及使用
kafka單節點多broker部署及使用 將配置檔案server.properties複製三份 cp server.properties server 1.properties 更新配置檔案 server 1.properties 中引數 broker.id 1 listeners plaintex...