新增和拆除 ceph 的 osd 程序相比其它兩種要多幾步。 osd 守護程序把資料寫入磁碟和日誌,所以你得相應地提供一 osd 資料盤和日誌分割槽路徑(這是最常見的配置,但你可以按需調整)。
從 ceph v0.60 起, ceph 支援 dm-crypt
加密的硬碟,在準備 osd 時你可以用 --dm-crypt
引數告訴 ceph-deploy
你想用加密功能。也可以用 --dmcrypt-key-dir
引數指定 dm-crypt
加密金鑰的位置。
在投建乙個大型集群前,你應該測試各種驅動器配置來衡量其吞吐量。詳情見資料儲存。
執行下列命令列舉一節點上的磁碟:
ceph-deploy disk list
用下列命令擦淨(刪除分割槽表)磁碟,以用於 ceph :
ceph-deploy disk zap :ceph-deploy disk zap osdserver1:sdb
important
這會刪除所有資料。
建立集群、安裝 ceph 軟體包、收集金鑰完成後你就可以準備 osd 並把它們部署到 osd 節點了。如果你想確認某磁碟或擦淨它,參見列舉磁碟和擦淨磁碟。
ceph-deploy osd prepare :[:]ceph-deploy osd prepare osdserver1:sdb:/dev/ssd
ceph-deploy osd prepare osdserver1:sdc:/dev/ssd
prepare
命令只準備 osd 。在大多數作業系統中,硬碟分割槽建立後,不用 activate
命令也會自動執行 activate
階段(通過 ceph 的 udev
規則)。詳情見啟用 osd。
前例假定乙個硬碟只會用於乙個 osd 守護程序,以及乙個到 ssd 日誌分割槽的路徑。我們建議把日誌儲存於另外的驅動器以最優化效能;你也可以指定一單獨的驅動器用於日誌(也許比較昂貴)、或者把日誌放到 osd 資料盤(不建議,因為它有損效能)。前例中我們把日誌儲存於分好區的固態硬碟。
note
在乙個節點執行多個 osd 守護程序、且多個 osd 守護程序共享乙個日誌分割槽時,你應該考慮整個節點的最小 crush 故障域,因為如果這個 ssd 壞了,所有用其做日誌的 osd 守護程序也會失效。
準備好 osd 後,可以用下列命令啟用它。
ceph-deploy osd activate :[:]ceph-deploy osd activate osdserver1:/dev/sdb1:/dev/ssd1
ceph-deploy osd activate osdserver1:/dev/sdc1:/dev/ssd2
activate
命令會讓 osd 進入 up
且 in
狀態,此命令所用路徑和 prepare
相同。你可以用 create
命令一次完成準備 osd 、部署到 osd 節點、並啟用它。 create
命令是依次執行 prepare
和 activate
命令的捷徑。
ceph-deploy osd create :[:]ceph-deploy osd create osdserver1:sdb:/dev/ssd1
note
稍後完成。手動過程見刪除 osd 。
出處:
ceph增加osd流程
假如需要新增乙個主機名 osd4 ip 192.168.0.110的osd 1.在osd4建立掛載目錄及放置配置檔案的目錄 ssh 192.168.0.110 這裡是從mon主機ssh到osd4主機 mkdir ceph osd.4 mkdir etc ceph 2.在osd4上格式化ext4的sd...
新增 刪除osd節點步驟
1 ceph osd tree 檢視目前cluster 狀態 df h mnt ceph vol1 確保node1掛載了rbd,在節點 node1上執行2 在節點node4上安裝ceph 並複製ceph.conf到其相應位置,同時在 etc hosts裡新增節點node4和相應ip,並推送到所有節點...
刪除OSD的正確方式
ceph osd crush reweight osd.0 0.1說明 這個地方如果想慢慢的調整就分幾次將crush 的weight 減低到0 這個過程實際上是讓資料不分布在這個節點上,讓資料慢慢的分布到其他節點上,直到最終為沒有分布在這個osd,並且遷移完成。這個地方不光調整了osd 的crush...