(1)關閉ceph集群資料遷移:
osd硬碟故障,狀態變為down。在經過mod osd down out interval 設定的時間間隔後,ceph將其標記為out,並開始進行資料遷移恢復。為了降低ceph進行資料恢復或scrub等操作對效能的影響,可以先將其暫時關閉,待硬碟更換完成且osd恢復後再開啟:
for i in noout nobackfill norecover noscrub nodeep-scrub;do ceph osd set $i;done
(2)定位故障osd
ceph osd tree | grep -i down
(3)進入osd故障的節點,解除安裝osd掛載目錄
[root@node3 ~]# umount /var/lib/ceph/osd/ceph-5
(4)從crush map 中移除osd
[root@node1 ~]# ceph osd crush remove osd.5
removed item id 5 name 'osd.5' from crush map
(5)刪除故障osd的金鑰
[root@node1 ~]# ceph auth del osd.5
updated
(6)刪除故障osd
(7)更換完新硬碟後,注意新硬碟的碟符,並建立osd
(8)在部署節點,切換為cent使用者,新增新的osd
[cent@deploy ceph]$ ceph-deploy osd create --data /dev/sdd node3
(9)待新osd新增crush map後,重新開啟集群禁用標誌
for i in noout nobackfill norecover noscrub nodeep-scrub;do ceph osd unset $i;done
ceph集群經過一段時間的資料遷移後,恢復active+clean狀態
更換EMC VNX系列儲存故障硬碟的檢查步驟
更換emc vnx系列儲存故障硬碟的檢查步驟 vnx1代 vnx5300,vnx5500,vnx5700,vnx7500和vnx2代 vnx5400,5600,5800和vnx7600,8000 有區別 vnx2相比較vnx1有一些硬體與軟體上的區別,比如兩者的熱備盤機制就有很大的不同。在vnx1中...
更換rootvg硬碟
ibm p55a的rootvg有兩塊硬碟,hdisk0 hdisk1,hdisk1為映象,現要更換hdisk1,更換步驟如下 1.使用lsvg l rootvg檢視映象情況,還要用lsvg p rootvg檢查一下hdisk1的狀態是否是missing或removed,errpt和mail也要檢查,...
7133更換硬碟步驟
7133 陣列中硬碟損壞,影響陣列中 raid 安全,需要更換 7133 硬碟。硬碟故障,主要是由於時間的原因,磁頭劃傷硬碟,造成壞道,屬於計算機裝置中使用過程中的正常損耗。這裡設定的時間根據硬碟容量大小 轉速等因素不同而不同,這裡是估算時間 3.1.1 提前備份資料庫及陣列相關資料 包括但不僅限於...