圖 1.?集群拓撲
?表 1.?集群配置
對于客戶端,每個節點配置了英特爾? 至強? 鉑金 8180 處理器、384 GB 內存和 1 個 Mellanox 40GbE NIC。同時,每個節點均使用 Ceph 12.2.2,并且每個英特爾? 固態盤 DC P3520 系列運行一個對象存儲守護程序(OSD)。用于測試的 RBD 池配置有 2 個副本。

測試方法

我們設計了四種不同的工作負載來模擬云中典型的全閃存 Ceph 集群(基于帶 librbd 的 fio),其中包括 4K 隨機讀寫和 64K 順序讀寫,以分別模擬隨機工作負載和順序工作負載。對于每個測試用例,IO 性能(IOPS 或帶寬)使用卷擴展數量(最大擴展到 100)來衡量,每個卷配置為 30 GB。這些卷已預先分配,以消除 Ceph 精簡配置機制的影響,獲得穩定且可復制的結果。每次測試之前停止 OSD 頁高速緩存,以消除頁高速緩存的影響。在每個測試用例中,fio 配置了 300 秒的準備時限和 300 秒的數據采集時限。如需了解詳細的 fio 測試參數,請參見可下載的 Ceph 配置文件。

4K 隨機寫入的系統指標

4K 隨機讀取的系統指標

?64K 隨機寫入的系統指標
64K 隨機讀取的系統指標
基于英特爾? 傲騰? 固態盤的全閃存 Ceph 在不同英特爾至強處理器下的性能表現

采用英特爾? 至強? 處理器 E5 2699 的測試系統與采用英特爾? 至強? 鉑金 8180 處理器的測試系統使用相同的集群拓撲和硬件配置。唯一的區別是每個服務器或客戶端節點均配置了英特爾? 至強? 處理器 E5-2699 v4 和 128 GB 內存。

對于軟件配置,英特爾? 至強? 處理器 E5 2699 測試采用 C eph 12.0.3,每個英特爾? 固態盤 DC P3520 系列運行四個 OSD 守護程序。這與英特爾? 至強? 鉑金 8180 處理器配置不同,它僅運行一個 OSD 守護程序。

?表 2.?性能對比概覽
對于采用英特爾? 至強? 鉑金 8180 處理器的系統客戶端,每個節點都配置了英特爾? 至強? 金牌 6140 處理器、192 GB 內存和 1 個 Mell anox 40 GbE NIC。同時,每個節點均使用 C eph 12.2.2,并且每個英特爾固態盤 DC P3520 系列運行 1 個 OSD 守護進程。用于測試的 RBD 池配置有 2 個復制系統拓撲。

表 3.?性能比較

未經允許不得轉載:存儲在線-存儲專業媒體 » 如何構建基于 Ceph 的高性能云存儲解決方案?
分享到

崔歡歡

相關推薦

精品国产午夜肉伦伦影院,双性老师灌满浓jing上课h,天天做天天爱夜夜爽,攵女乱h边做边走