在基礎環境部署完成後進行
1.在node-1 結點上安裝部署工具 ceph-deploy
yum install -y ceph-deploy
mkdir ceph-cluster
cd ceph-cluster/
給其他三颱同步安裝
for i in 200 106 164; do ssh 192.168.4.$i "yum install -y ceph-mon ceph-osd ceph-mds ceph-radosgw"; don
rpm -qa | grep ceph #檢視包數量
2.初始化 mon 配置,檔案為 ceph.conf(必須在 ceph-cluster 當前目錄下操作)
#ceph-deploy new node-1 node-2 node-3
cat ceph.conf
ls /etc/ceph/
3.遠端所有 node 主機,拷貝配置檔案,並啟動 ceph-mon 服務,配置檔案被拷貝到/etc/ceph/ceph.conf
ceph-deploy mon create-initial
檢視集群狀態
ceph -s
此時應該顯示health_err狀態,因為沒有啟動osd沒有共享
4.建立osd磁碟
準備磁碟分割槽,分割槽用於做快取
for i in node-1 node-2 node-3;do ssh $i ;"parted /dev/vdb mklabel gpt";ssh $i "parted /dev/vdb mkpart primary 1 100%";done
修改磁碟的屬性
for i in node-1 node-2 node-3
> do
> ssh $i "chown ceph.ceph /dev/vdb1"
> done
cd ceph-cluster/ #必須在這個目錄下操作
for i in node-1 node-2 node-3
> do
> ceph-deploy disk zap $i:vdc #初始化清空磁碟資料
> done
建立空間
for i in node-1 node-2 node-3
> do
> ceph-deploy osd create $i:vdc:/dev/vdb1 #建立 osd 儲存裝置,vdc 提供
儲存空間,vdb1 為快取
> done
檢視狀態
ceph -s
以顯示3 個 osd和總容量
ceph osd tree #檢視集群狀態 osd 樹
systemctl status ceph-osd@0 #檢視 ceph-osd啟動以數字結尾,從 0 開始
到這ceph就部署完成了 ceph分布式建立與使用(上)
系統 centos7.6 前提 四台kvm虛擬機器 簡述 四台為統一網段192.168.4.0 24,第四台為client ntp同步伺服器 以下ip都是例子具體看自己主機ip,ip a 或ifconfig hostname ipnode 1 192.168.4.185 node 2 192.168...
linux下ceph分布式安裝使用教程
目錄 k8s集群使用什麼樣的儲存比較好那,我調研了一下分布式儲存ceph,在這裡分享給大家。node1 admin,osd,mon node2 osd,mds,client 修改主機名,切記主機名不能出現下劃線 修改主機名 etc hostname hostnamectl set hostname ...
分布式儲存系統 Ceph
你了解ceph嗎?ceph是一種分布式儲存系統,它可以將多台伺服器組成乙個超大集群,把這些機器中的磁碟資源整合到一塊兒,形成乙個大的資源池 pb級別 然後按需分配給應用使用。那麼你知道ceph的架構嗎?ceph的底層實現是rados,rados是由c 寫的,但是它向外界暴露了呼叫介面,即librad...