目錄
k8s集群使用什麼樣的儲存比較好那,我調研了一下分布式儲存ceph,在這裡分享給大家。
node1: admin,osd,mon
node2: osd,mds, client
修改主機名, 切記主機名不能出現下劃線
修改主機名(/etc/hostname):
hostnamectl set-hostname node1
hostnamectl set-hostname node2
修改 /etc/hosts 加入
vim /etc/hosts
192.168.84.131 node1
192.168.84.132 node2
ssh-keygen
ssh-copy-id -i id_rsa.pub [email protected]
mkfs.xfs /dev/sdb
blkid /dev/sdb
mkdir -p /data/osd
vim /etc/fstab
uuid="57493ebb-6744-4355-" /data/osd xfs defaults 0 0
mount -a
(1)配置yum源
vim /etc/yum.repos.d/ceph.repo
[ceph]
name=ceph
baseurl=
gpgcheck=0
priority=1
[ceph-noarch]
name=cephnoarch
baseurl=
gpgcheck=0
priority=1
[ceph-source]
name=ceph source packages
baseurl=
gpgcheck=0
priority=1
#清楚yum快取,重新載入
yum clean all
yum makecache
(2)安裝ceph-deploy管理工具
yum -y install ceph-deploy
(3)建立monitor服務
mkdir /data/ceph
cd /data/ceph/
ceph-deploy new node1
ceph.conf ceph的配置檔案
ceph-deploy-ceph.log ceph日誌
ceph.mon.keyring ceph monitor金鑰環檔案
#如果想要修改守護程序數,也就是副本數,可以在ceph.conf配置檔案中新增如下行
osd_pool_default_size = 1 ##副本數
ceph-deploy install node1 node2
#上面這個命令是去官方伺服器**安裝,相當慢一般不會這樣用。之前管理節點node1配置過ceph的阿里雲的源,可以直接yum安裝。不過另外主機node2需要先配置yum源,再安裝。
yum -y inswww.cppcns.comtall epel-release
yum -y install ceph-release
yum -y inswww.cppcns.comtall ceph ceph-radosgw
cd /data/ceph/
ceph-deploy mon create node1
ceph-deploy gatherkeys node1
#前面已經建立過osd目錄並掛載,這裡只需要建立osd節點即可。
ceph-deploy osd prepare node1:/data/osd node2:/data/osd
在不同的主機上可以看到,對應的節點會生成檔案
#在管理節點node1上啟用各節點的osd
ceph-deploy osd activate node1:/data/osd node2:/data/osd
#上圖可以明顯看出是許可權不足的原因,直接授權777
chmod 777 -r /data/osd/
#重新執行啟用
ceph-deploy osd activate node1:/data/osd node2:/data/osd
啟用完成後可以使用命令檢視osd
ceph-deploy osd list node1 #也可以檢視多程式設計客棧個節點,中間用空格隔開
#使用命令將配置檔案和admin金鑰同步到各個節點,以便各個節點使用ceph命令時無需指定monitor位址和ceph.client.admin.keyring金鑰。注意:還需要修改各個節點ceph.client.admin.keyring金鑰的許可權
ceph-deploy admin node1 node2
node1:
cd /data/ceph
chmod +r ceph.client.admin.keyring
node2:
cd /etc/ceph
chmod +r ceph.client.admin.keyring
最後檢視osd狀態:
ceph health
ceph-deploy mds create node2
ceph mds stat
檢視集群狀態:
ceph -s
結語集群狀態當時忘記截圖了,執行ceph -s 命令,大家只要看到包含「health_ok」的字樣,集群就部署成功了。
Ceph分布式儲存安裝 xiaoma
ceph分布式儲存安裝 前言參照官方文件中的快速安裝,結合國內環境,將相關安裝源修改為國內映象源提高安裝速度。基礎系統環境 新增阿里雲yum源mv etc yum.repos.d centos base.repo etc yum.repos.d centos base.repo.backup cur...
ceph分布式建立與使用(下)
在基礎環境部署完成後進行 1.在node 1 結點上安裝部署工具 ceph deploy yum install y ceph deploy mkdir ceph cluster cd ceph cluster 給其他三颱同步安裝 for i in 200 106 164 do ssh 192.16...
分布式儲存系統 Ceph
你了解ceph嗎?ceph是一種分布式儲存系統,它可以將多台伺服器組成乙個超大集群,把這些機器中的磁碟資源整合到一塊兒,形成乙個大的資源池 pb級別 然後按需分配給應用使用。那麼你知道ceph的架構嗎?ceph的底層實現是rados,rados是由c 寫的,但是它向外界暴露了呼叫介面,即librad...