glusterfs搭建:
第一次建立複製卷的命令:replica 2 雙副本機制,後面跟每個節點的brick
gluster volume create myvolume replica 2 transport tcp 10.xx.xx.xx:/glusterfs/data xx.xx.xx.xx:/glusterfs/data
擴容命令如下:
在任意一台glusterfs節點上面操作,新增新增的節點
#gluster peer probe 192.168.1.178
#gluster peer probe 192.168.1.179
#gluster peer probe 192.168.1.180
#gluster peer probe 192.168.1.181
#gluster peer probe 192.168.1.182
#gluster peer probe 192.168.1.183
#gluster peer probe 192.168.1.184
#gluster peer probe 192.168.1.185
#gluster volume add-brick myvolume 192.168.1.178:/glusterfs/data 192.168.1.179:/glusterfs/data 192.168.1.180:/glusterfs/data 192.168.1.181:/glusterfs/data 192.168.1.182:/glusterfs/data 192.168.1.183:/glusterfs/data 192.168.1.184:/glusterfs/data 192.168.1.185:/glusterfs/data
#gluster volume rebalance myvolume start 啟動均衡設定
#gluster volume rebalance myvolume status 檢視均衡狀態
檢視卷的狀態,以前是兩台節點的時候是複製卷,目前是10個節點的時候是分布式複製卷,也就是第乙個資料file1寫入node1複製到node2,第二個資料file2寫入到node3複製到node4,以此類推;
# gluster volume info myvolume
volume name: myvolume
type: distributed-replicate
volume id: 56d4ddf3-b38a-4f6c-8c11-dcb2dc5dedba
status: started
number of bricks: 5 x 2 = 10
transport-type: tcp
bricks:
brick1: 192.168.1.174:/glusterfs/data
brick2: 192.168.1.175:/glusterfs/data
brick3: 192.168.1.178:/glusterfs/data
brick4: 192.168.1.179:/glusterfs/data
brick5: 192.168.1.180:/glusterfs/data
brick6: 192.168.1.181:/glusterfs/data
brick7: 192.168.1.182:/glusterfs/data
brick8: 192.168.1.183:/glusterfs/data
brick9: 192.168.1.184:/glusterfs/data
brick10: 192.168.1.185:/glusterfs/data
GlusterFS 編碼規範
glusterfs 編碼規範 1.每個結構成員需要有一條能夠說明其用途的注釋 bad gf lock t lock lock good dbtype access mode access mode for accessing the databases,can be db hash,db btree...
glusterfs 管理操作
glusterfs 是乙個開源的 能夠擴充套件到pb級同時處理上千個客戶端的集群檔案系統。glusterfs可以靈活的把一般物理的 虛擬的 以及雲資源聚合在乙個提供乙個高可用的 高效能的商業儲存,花費只佔傳統儲存解決方案的一小部分。glusterfs集群在infiniband rdma或者tcp i...
glusterfs 常見操作
啟動並設定為系統服務 yum install y glusterfs server systemctl start glusterd.service systemctl enable glusterd.service other systemctl status stop glusterd.serv...