清理快取命令
echo 3 > /proc/sys/vm/drop_caches #清除快取頁,目錄項和inodes
磁碟效能測試(dd)
測試磁碟寫吞吐量
dd命令對磁碟進行標準寫測試。記住新增oflag引數以繞過磁碟頁面快取。
dd if=/dev/zero of=/var/lib/ceph/osd/wc01 bs=1g count=1 oflag=direct
測試磁碟讀吞吐量
dd命令對磁碟進行標準讀測試。記住新增iflag引數以繞過磁碟頁面快取。
dd if=/var/lib/ceph/osd/wc01 of=/dev/null bs=2g count=1 iflag=direct
硬碟驅動器
儲存驅動器受限於尋道時間、訪問時間、讀寫時間、還有總吞吐量,這些物理侷限性影響著ceph整體系統效能,尤其在系統恢復期間。ceph 允許你在每塊硬碟驅動器上執行多個 osd ,但這會導致資源競爭並降低總體吞吐量; ceph 也允許把日誌和物件資料儲存在相同驅動器上,但這會增加記錄寫日誌並回應客戶端的延時,因為 ceph 必須先寫入日誌才會回應確認了寫動作。btrfs檔案系統能同時寫入日誌資料和物件資料,xfs和ext4 卻不能。但是不穩定不建議線上環境使用。
固態硬碟
一種提公升效能的方法是使用固態硬碟(ssd)來降低隨機訪問時間和讀延時,同時增加吞吐量。ssd和硬碟相比每gb成本通常要高10倍以上,但訪問時間至少比硬碟快100倍。評估ssd時,順序讀寫效能很重要。
可以在同一主機上執行多個osd ,但要確保osd硬碟總吞吐量 =< 客戶端提供讀寫服務所需的網路頻寬;還要考慮集群在每台主機上所儲存的資料佔總體的百分比,如果一台主機所佔百分比太大而它掛了,就可能導致諸如超過full ratio的問題,此問題會使ceph中止運作以防資料丟失。
效能:1、資料雙倍寫入
ceph本地儲存介面(filestore)為了支援事務,引入了日誌(journal)機制。所有的寫入操作都需要先寫入日誌(xfs模式下),然後再寫入本地檔案系統。簡單來說就是乙份資料需要寫兩遍,日誌+本地檔案系統。這就造成了在大規模連續io的情況下,實際上磁碟輸出的吞吐量只有其物理效能的一半。
2、io路徑太長
乙個io需要經過多個模組才能完成,每個模組之間都涉及到佇列和執行緒切換。
3、對高效能硬體支援有待改進
ceph最開始是為hdd設計的,沒有充分考慮全ssd,導致這些硬體的物理效能在ceph中無法充分發揮出來,特別是延遲和iops。
Ceph 知識摘錄 設計思想,集群維護
動態特性 儲存系統規模變化 業務規模 儲存系統裝置變化 節點 磁碟故障替換必然是時常出現的問題,業務不能受到這種硬體 底層軟體影響 儲存系統資料變化 技術特性 高可靠性 盡可能保證儲存資料不會丟失,使用者將資料寫到ceph儲存系統過程中,不會出現意外導致資料丟失 使用者寫入 儲存資料不丟失 高度自動...
效能測試新手需知(摘錄)
有過一些效能測試 經驗的人很容易進入此狀態,他們已經熟悉了效能測試的基本流程,能夠比較熟練的使用測試工具開展工作 我大概從事效能測試一年左右時遇到了這個問題,那時我覺得效能測試的過程沒有太多挑戰,遇到的每乙個系統,彷彿都可以用同樣的流程完成。半天時間填寫測試方案,一天時間來準備測試環境,一天時間準備...
Ceph 知識摘錄 系統架構 資料儲存過程
ceph系統基礎服務架構 ceph的底層實現是rados,它向外界暴露了呼叫介面,即librados,應用程式只需要呼叫librados的介面,便可操縱ceph。ceph物件儲存閘道器允許你通過swift及s3 api訪問ceph。他將這些api請求轉化為librados請求。1 基礎儲存系統rad...