1、檢視ceph集群配置資訊
1ceph daemon /
var
/run/ceph/ceph-mon.$(hostname -s).asok config show
2、在部署節點修改了ceph.conf檔案,將新配置推送至全部的ceph節點
1ceph-deploy --overwrite-conf config push dlp node1 node2 node3
3、檢查仲裁狀態,檢視mon新增是否成功
1ceph quorum_status --format json-pretty
4、列式pool列表
1ceph osd lspools
5、列示pool詳細資訊
1ceph osd dump |grep pool
6、檢查pool的副本數
1ceph osd dump|grep -i size
7、建立pool
1ceph osd pool create pooltest 128
8、刪除pool12
ceph osd pool delete data
ceph osd pool delete data data --yes-i-really-really-mean-it
9、設定pool副本數12
ceph osd pool
get
data size
ceph osd pool
set
data size 3
10、設定pool配額12
ceph osd pool
set
-quota data max_objects 100 #最大100個物件
ceph osd pool
set
-quota data max_bytes $((10 * 1024 * 1024 * 1024)) #容量大小最大為10g
11、重新命名pool
1ceph osd pool rename data date
12、pg, placement groups。crush先將資料分解成一組物件,然後根據物件名稱、複製級別和系統中的pg數等資訊執行雜湊操作,再將結果生成pg id。可以將pg看做乙個邏輯容器,這個容器包含多個對 象,同時這個邏輯物件對映之多個osd上。如果沒有pg,在成千上萬個osd上管理和跟蹤數百萬計的物件的複製和傳播是相當困難的。沒有pg這一層,管理海量的物件所消耗的計算資源也是不可想象的。建議每個osd上配置50~100個pg。
pgp是為了實現定位而設定的pg,它的值應該和pg的總數(即pg_num)保持一致。對於ceph的乙個pool而言,如果增加pg_num,還應該調整pgp_num為同樣的值,這樣集群才可以開始再平衡。
引數pg_num定義了pg的數量,pg對映至osd。當任意pool的pg數增加時,pg依然保持和源osd的對映。直至目前,ceph還未開始再平衡。此時,增加pgp_num的值,pg才開始從源osd遷移至其他的osd,正式開始再平衡。pgp,placement groups of placement。
計算pg數:
ceph集群中的pg總數
1pg總數 = (osd總數 * 100) / 最大副本數 ** 結果必須捨入到最接近的2的n次方冪的值
ceph集群中每個pool中的pg總數
1儲存池pg總數 = (osd總數 * 100 / 最大副本數) / 池數
獲取現有的pg數和pgp數值12
ceph osd pool
get
data pg_num
ceph osd pool
get
data pgp_num
13、修改儲存池的pg和pgp12
ceph osd pool
set
data pg_num = 1
ceph osd pool
set
data pgp_num = 1
分布式儲存系統 Ceph
你了解ceph嗎?ceph是一種分布式儲存系統,它可以將多台伺服器組成乙個超大集群,把這些機器中的磁碟資源整合到一塊兒,形成乙個大的資源池 pb級別 然後按需分配給應用使用。那麼你知道ceph的架構嗎?ceph的底層實現是rados,rados是由c 寫的,但是它向外界暴露了呼叫介面,即librad...
分布式儲存系統 Ceph
你了解ceph嗎?ceph是一種分布式儲存系統,它可以將多台伺服器組成乙個超大集群,把這些機器中的磁碟資源整合到一塊兒,形成乙個大的資源池 pb級別 然後按需分配給應用使用。那麼你知道ceph的架構嗎?ceph的底層實現是rados,rados是由c 寫的,但是它向外界暴露了呼叫介面,即librad...
Ceph分布式儲存系統簡介
內容 注 了解ceph的作用與基本概念 ceph是乙個可靠地 自動重均衡 自動恢復的分布式儲存系統,根據場景劃分可以將ceph分為三大塊,分別是物件儲存 塊裝置儲存和檔案系統服務。在虛擬化領域裡,比較常用到的是ceph的塊裝置儲存,比如在openstack專案裡,ceph的塊裝置儲存可以對接open...