192.168.1.11 10.1.1.241 glusterfs01 三塊磁碟
192.168.1.12 10.1.1.242 glusterfs02 三塊磁碟
192.168.1.13 10.1.1.243 glusterfs03 三塊磁碟
192.168.1.14 10.1.1.244 glusterfs-client
關閉防火牆、selinux和時間同步
安裝依賴包
yum install rpcbind libaio lvm2-devel -y[root@glusterfs01 ~]# cd glusterfs-rpm安裝包/[root@glusterfs01 glusterfs-rpm安裝包]# yum install glusterfs-*.rpm -y
或者分開裝:
分割槽過程忽略
[root@glusterfs01 ~]# mkdir /brick1 /brick2 #建立掛載目錄
[root@glusterfs01 ~]# mount /dev/sdb1 /brick1
[root@glusterfs01 ~]# mount /dev/sdc1 /brick2
vim /etc/fastb或者/etc/rc.local
[root@glusterfs01 ~]# /etc/init.d/glusterd start
以上三個節點相同操作
新增其他節點:
[root@glusterfs01 ~]# gluster peer probe server2 #新增其他兩台加入集群,只需要在乙個節點操作[root@glusterfs01 ~]# gluster peer probe server3
[root@glusterfs01 ~]# gluster peer status #同時在其他節點檢視
[root@glusterfs01 ~]# gluster volume create testvo1 server1:/brick1/b1 #建立乙個分布式卷,b1目錄會自動建立,先使用乙個節點,為後面擴充套件做準備
[root@glusterfs03 ~]# gluster volume start testvo1
[root@glusterfs03 ~]# gluster volume status
[root@glusterfs03 ~]# gluster volume info
[root@glusterfs01 b1]# gluster volume status
客戶端掛載及測試
[root@fluster-client ~]# mount -t glusterfs server1:/testvo1 /mnt[root@glusterfs01 ~]# gluster volume add-brick testvo1 server2:/brick1/b2 server3:/brick1/b3 #testvo1卷新增另外兩個節點
[root@glusterfs01 ~]# gluster volume info
[root@fluster-client aa]# df -h #客戶端檢視擴充套件前後掛載目錄的大小
客戶端在測試新增一些資料到掛目錄,看看節點上是否會有資料,已經分配是否均勻
[root@glusterfs01 hehe]# gluster volume remove-brick testvo1 server3:/brick1/b3 #刪除乙個節點
removing brick(s) can result
in data loss. do you want to continue? (y/n) y
[root@glusterfs01 hehe]# gluster volume info
[root@fluster-client aa]# df -h #客戶端檢視刪除前後掛載目錄的大小
[root@glusterfs01 hehe]# gluster volume rebalance testvo1 start #做資料的負載均衡
[root@glusterfs03 hehe]# rm -rf /brick1/b3/#將之前的刪除節點加入卷,需要先刪除之前的資料目錄
[root@glusterfs03 hehe]# gluster volume add-brick testvo1 server3:/brick1/b3
[root@glusterfs01 test]# gluster volume rebalance testvo1 start #新增刪除節點應當都需要做資料負載均衡
刪除卷,檢視卷內的資料檔案是否還在
[root@fluster-client ~]# umount /mnt/#客戶端解除安裝掛載點[root@glusterfs01 test]# gluster volume stop testvo1
[root@glusterfs01 test]# gluster volume delete testvo1
建立乙個複製卷
[root@glusterfs01 brick1]# gluster volume create testov1 replica 2 server1:/brick1/b1 server2:/brick1/b2[root@glusterfs01 brick1]# gluster volume start testov1
[root@glusterfs01 brick1]# gluster volume info #檢視type 屬性
[root@fluster-client ~]# mount -t glusterfs server1:/testov1 /mnt #客戶端掛載,檢視掛載目錄大小
[root@fluster-client ~]# df -h #進入掛點新增一些資料,檢視資料是否在兩個節點中一致
卷資訊同步
[root@glusterfs03 vols]# rm -rf /var/lib/glusterd/vols/testov1/#刪除節點三的卷資訊(沒個節點卷資訊都是一致的,即使資料不一致)[root@glusterfs03 vols]# gluster volume sync server2 all #從節點2恢復卷資訊
[root@glusterfs03 vols]# ll #剛剛被刪除的內容有恢復了
#訪問許可權設定
[root@glusterfs01 b1]# gluster volume set testov1 auth.allow 192.168.1.*#允許訪問(僅做ip訪問控制,客戶端已掛載需要重新掛載生效)[root@glusterfs01 b1]# gluster volume
set testov1 auth.reject 10.1.1.* #禁止訪問,重新allow即可恢復被禁止的ip
目錄配額
[root@glusterfs01 b1]# gluster volume create dhtvol server1:/brick1/dht[root@glusterfs01 b1]# gluster volume start dhtvol
[root@glusterfs01 b1]# gluster volume info dhtvol
[root@fluster-client mnt]# mount -t glusterfs server1:/dhtvol /media/#客戶端掛載
[root@fluster-client mnt]# df -h
[root@glusterfs01 b1]# gluster volume add-brick dhtvol server2:/brick1/dht #擴充套件卷的容量
參考:
的安裝配置 Manjaro Linux安裝配置
安裝wmtools 1.解除安裝舊版本 sudo pacman r open vm tools git clone 3.執行指令碼進行安裝 cd vmware tools patches sudo patched open vm tools.sh 安裝vim sudo pacman s vim 更新...
python配置安裝 配置安裝
scrapy框架安裝 安裝請參考 scrapy安裝 windows安裝方式 1.先確定windows是否安裝了python c users administrator python python 2.7.13 v2.7.13 a06454b1afa1,dec 17 2016,20 53 40 msc...
Fedora 安裝配置
1,sudo 的配置 chmod w etc sudoers echo mirandam all all nopasswd all etc sudoers chmod w etc sudoers sudo 2,安裝源 產生新增第三方源 安裝驅動 sudo yum install kmod nvidi...