參考:
問題的提出:
在ceph集群中,當有新的osd 新增到集群中,會導致資料移動以達到資料均衡,資料的移動只在舊的osd和新新增的osd之間移動,還是舊有的osd之間也有資料移動?
上次ceph社群交流,有人提到,當有100個osd時,新增osd, 舊有的osd之間會有劇烈的資料移動
目前做了乙個實驗,ceph 集群有6個 osd(0,1,2,3,4,5),再新增 2個新的osd(6,7), 觀察新增新的osd之前和之後的pg變化
通過 ceph pg ls | awk '' 可以獲得所有的pg到osd的對映
集群中共有pg 169 個
對比結果發現會有這樣的遷移:(4,0,1) --> (6,1,3) 也就是舊的osd之間的遷移
總共有134個pg遷移,這樣的內部之間遷移的pg有6個,比例不是太多
結論:原有的舊的osd之間內部確實有資料的遷移
最近有人開發了以工具,可以模組pg的分布,這樣在遷移時,可以做一些模擬實驗,當合適時再遷移:
ceph 資料修復 均衡速度測試
以副本環境的資料均衡為例,以下需要注意 cosbench支援命令列。進入cosbench目錄,用.cli.sh 來開始 結束任務 root node 105 84 cd 0.4.2.c4 root node 105 84 0.4.2.c4 cli.sh usage cli.sh action sub...
ceph 檢視是否在恢復 Ceph資料恢復初探
眾所周知,ceph是近年來最為炙手可熱的開源分布式儲存系統。跟其他分布式儲存系統不一樣的是,ceph在稱之為rados的核心物件儲存架構之上,提供了塊儲存 檔案儲存以及物件儲存的介面,因此ceph可以稱之為統一儲存 unified storage 而本文我們將討論的是ceph rados核心層面的資...
Ceph 手動搭建ceph集群
hostname ipmon id 磁碟快journal ceph1 192.168.1.1 0 dev sdb2 dev sdb1 ceph2 192.168.1.2 1 dev sdb2 dev sdb1 ceph3 192.168.1.3 2 dev sdb2 dev sdb1 使用yum來安...