ceph osd create
//獲取osd的id號,假設輸出的是2
ssh osd2 //登入到要新增到集群的主機
sudo mkdir /var/lib/ceph/osd/ceph-2
//建立新的osd目錄
sudo mkfs.btrfs /dev/sdb //如果檔案系統用的不是btrfs,在終端輸入mkfs.,然後table查詢你要用的檔案系統
sudo mount /dev/sdb /var/lib/ceph/osd/ceph-2
//將sdb硬碟掛載到ceph-2目錄下
ceph-osd -i 2 --mkfs --mkkey //初始化osd資料目錄
ceph auth add osd.2 osd 'allow *' mon 'allow rwx' -i /var/lib/ceph/osd/ceph-2/keyring //註冊 osd 認證金鑰
ceph osd crush add-bucket osd2 host //新增bucket,將新增的osd2新增到crush map
ceph osd crush move osd1 root=default
// 新增osd2到default root
ceph osd crush add osd.2
4.0 host=osd2 //新增osd daemon到對應主機的bucket. 同樣是修改crush map.(4.0是指4t硬碟的osd的權重,建議每t給1.0的權重)
service ceph start osd.2
//啟動osd.2的服務(方法1)
sudo start ceph-osd id=2
//啟動osd.2的服務(方法2)
sudo /etc/init.d/ceph start osd.2
//啟動osd.2的服務(方法3)
ceph 新增osd失敗問題
在ceph集群使用過程中遇到乙個問題,剔除一塊磁碟需要更換新磁碟,使用下面兩個新增命令反覆操作了多次,osd都沒有加到集群裡面,不知道是什麼原因,無奈之下重啟了伺服器,伺服器啟動後,osd設定到了集群中。新增命令應該是生效了,可能是機器處於某種狀態導致新增osd異常,遇到類似問題可以考慮重啟要新增o...
ceph增加osd流程
假如需要新增乙個主機名 osd4 ip 192.168.0.110的osd 1.在osd4建立掛載目錄及放置配置檔案的目錄 ssh 192.168.0.110 這裡是從mon主機ssh到osd4主機 mkdir ceph osd.4 mkdir etc ceph 2.在osd4上格式化ext4的sd...
ceph 指定OSD建立pool
ceph集群中允許使用混合型別的磁碟,比如一部分磁碟是ssd,一部分是stat。如果針對某些業務小高速磁碟ssd,某些業務需要stat,在建立資源池的時候可以指定建立在某些osd上。基本步驟有8步 當前只有stat沒有ssd,但是不影響實驗結果。1 獲取crush map root ceph adm...