Ceph記憶體配置推薦

2021-10-11 14:24:31 字數 520 閱讀 3411

mon+mgr節點

一般情況下,記憶體越多越好。

不太大的集群(理解為小於300osd),mon/mgr節點64g記憶體即可。

超過300osd的集群,mon/mgr推薦配置128g記憶體。

osd每個bluestore的osd預設記憶體大小為4g,如果希望遷移/重構速度更寬,建議每個osd配置8g記憶體。

osd_memory_target引數配置參考

osd最小2g記憶體,低於2g記憶體osd效能將會非常低下

osd內存在2-4g時,在大讀寫量的情況下,效能也會比較低,因為osd需要從磁碟查詢元資料。

4g是乙個比較均衡的記憶體推薦值。

如果在小檔案比較多的情況下,將記憶體提公升至超過4g是有效果的,大檔案場景下配置超過4g的記憶體比較浪費。

osd記憶體採用「給多少用多少」模式,盡量配置osd_memory_target引數,給定osd乙個確切的值,配置完後需要重啟osd。

mds

不考慮快取的情況下,最小1g記憶體

ceph配置規範

ceph配置 配置形式 小寫字母,單詞之間通過 連線 啟動選項 mon host monitors列表 mon dns serv name 預設ceph mon,dns伺服器識別monitor位址 mon data osd data mds data mgr data 資料儲存在本地的目錄位址 ke...

Ceph配置引數(三)

ceph配置引數 一 ceph配置引數 二 8 monitor config reference 客戶端在讀寫資料前,都比去和monitor取得聯絡,獲得cluster map,結合crush演算法計算得到物件的位置。1 最小配置 生成乙個fsid和monitorde的最小配置,配置字段 mon 或...

CEPH高可用配置

就是再增加乙個物件閘道器rgw root node1 ceph s rgw 1 daemons active node1 現在只有乙個rgw節點 1 在管理節點的工作目錄下,給 ceph 物件網關節點安裝ceph物件所需的軟體包 root node1 yum install y ceph rados...