Ray Jang:PCIe標準最初建立的初衷并非面向相對較為嚴苛的企業級存儲、服務器以及數據中心設備要求。舉例來說,在數據中心環境之內,預期之外的卡、驅動器乃至其它周邊設備插入與拔出絕對不能引發CPU以及/或者系統的崩潰,這已經成為體系運作當中的關鍵性前提。標準PCIe交換機并不能順利應對這些每天經常出現的意外狀況,而這也成為PCIe機制在企業系統當中全面推廣的一大障礙。
Ray Jang:PCIe交換將成為NVMe Over Fabric當中的重要組成部分,因為它將在Fabric后端提供必需的高性能連接。NVMe Over Fabric將被用于提升NVMe標準的適用范圍與可擴展能力,并以此為起點允許客戶接入到更為龐大的NVMe SSD當中。這些驅動器池需要彼此連接在一起,而后接入Fabric網卡,而PCIe交換機制也將在這里發揮作用。
記者:為什么不使用InfiniBand作為替代方案呢?
Ray Jang:使用InfiniBand(或者iWARP,或RoCE)對于單一NVMe SSD來說成本太高,而且在大多數部署場景下亦會占用太多功耗。InfiniBand以及其它RDMA型Fabric方案確實能夠提供出色的可擴展能力以及可管理性,但卻會占用過于高昂的投入以及功耗。對于很多應用程序來說,最為合理的方案應該是利用RDMA與NVMe SSD資源池相對接,而后利用PCIe交換機制在該資源池內部實現各驅動器的彼此互連。
Ray Jang:使用基礎的以太網連接進行NVMe SSD接入并不是個好主意,因為以太網幀與NVMe命令之間存在著協議翻譯過程。如果我們使用基本的以太網網卡,那么這項翻譯任務就需要著落在CPU身上。這會增加CPU負載、提高延遲水平,而且有可能在我們嘗試進行性能擴展時導致問題–因為CPU將成為擴展后體系中的瓶頸所在。
在NVMe Over Fabric當中,我們需要使用RDMA來實現在硬件當中處理協議翻譯,并借此改進性能同時降低CPU負載。再次強調,對于單一驅動器而言這樣的Fabric方案并不合適,而PCIe交換機制則能夠在這樣的情況下扮演重要的角色。
"NVMe SSD一切以性能與延遲為考量"
記者:關于PMC PCIe交換技術及其產品,還有哪些情況值得我們關注并了解?
Ray Jang:NVMe SSD一切以性能與延遲為考量。此類設備能夠在利用PCIe交換機制實現本地連接、RDMA實現長距離連接時發揮出最佳性能。PCIe交換機制允許我們將大量NVMe驅動器對接在一起,而且無需處理任何協議翻譯工作,而這也將成為性能優化工作中的核心所在。