最近手頭項目接近尾聲,希望花些時間陸續把以往設計經驗分享出來,當然,這僅僅是來自我個人的經驗。
我會盡量捨棄些宏觀概念,包括項目潛在效益,成本保護等等,因爲我覺得那只不過是sales 該掌握的。
關於SAN 的設計-Host 設計:
位於整個SAN架構角色,我們通常會把注意力放在性能上面,當然不否認的說,這也是很重要的,關於應用主機(物理)該如何配置呢?我分享下經驗
在很多時候,用戶因爲預算,問我能否配置一臺組裝的應用服務器,當然內地很多廠商已經很成熟的納入這項業務,而我通常建議:您最好不要這樣做。
組裝服務器往往會在價格存在優勢,或者同價格的性能上存在優勢,但是我們很有可能失去穩定性,我一直把穩定性的優先級放在性能至上。一線廠牌的Server 在出廠之前都是經過嚴格測試的,並且得出最終的年故障停機率。並且每臺設備售出,信譽上要向全球負責,組裝服務器往往可能會忽略這些細節,總之,預算緊,請配備一臺低端的一線廠牌的服務器。
PCI 總線:
FC HBA 與 iSCSI NICs 往往會產生很大的流量通過PCI 總線,選擇最佳總線速率,確保系統能夠處理預期的工作負載。
另外:如果預期考慮到PCI 總線會有很大的流量負擔,請優先考慮傳統,獨立的服務器,而不是刀片服務器,經驗豐富的工程師必定知道,刀片服務器總線及適配器往往是統一彙集的。
Multiport HBA’s
Multiport NIC’s
多個端口的適配器確保鏈路冗餘,在安全上是很重要的。請確保FC HBA支持發起模式
端口速率的選擇,我沒有主觀的建議,因爲與實際的生產環境有很大的關係,但是我提供一些數值,再壓力測試之後,能通過這些數值選配最佳速率的適配器。
表1-HBA卡最大的性能:
端口速率 | IO/s | MB/s 半雙工 | MB/s 全雙工 |
2 Gb/s | 100000 | 200 | 400 |
4 Gb/s | 150000 | 400 | 800 |
8 Gb/s | 200000 | 800 | 1600 |
表1顯示的光線適配器最大速率,但是通常在適配器工作時候會有部分的額外損耗,實際速率通常是理論值的66%:
表2-HBA卡實際工作速率
端口速率 | IO/s | MB/s 半雙工 | MB/s 全雙工 |
2 Gb/s | 65000 | 180 | 360 |
4 Gb/s | 100000 | 360 | 720 |
8 Gb/s | 130000 | 720 | 1440 |
*表2上面的值,根據實際環境的因素,可能會更高或更低,實踐環境下,可以利用此數值進行參考。
端口連接:
如果已經配置冗餘端口,儘可能把端口物理隔離。
比如HOST 有2塊雙端口的HBA卡,一方面連接帶有雙控的存儲1,一方面連接帶有雙控的存儲2.可以分別佔用2塊卡各一個端口連接存儲1,其餘連接存儲2.
表3-iSCSI 平均速率
端口速率 | IO/s | MB/s |
1 Gb/s | 12000 | 80 |
10 Gb/s | 80000 | 530 |
*表3上面的值,根據實際環境的因素,可能會更高或更低,實踐環境下,可以利用此數值進行參考;
另外:iSCSI 通常會比FC 造成更大的性能開銷。尤其是CPU,因爲通過Ip封裝的SCSI命令,要靠CPU進行處理。通常iSCSI 的發起端,要比iSCSI的目標端帶來更大的開銷。
我建議爲每一個iSCSI發起端/目標端增加一顆CPU(Core);
多少顆CPU(Core)
取決於服務器有多少IO / s必須被處理;適當數量的cpu必須選擇。
另外:之前遇到一個問題,發生在一臺Esxi的Host 上面,一顆多核心的CPU,其中一個核心工作負載接近90%以上,而其它幾個核心似乎10%以下。這顆CUP的屬性是:基於Inter Xeon 5系列,解決的方法是,進入BIOS ,關閉類似一個TurboBoot功能,然後得到解決。
操作系統:
這一方面似乎沒有太多的介紹,因爲根據業務類型,客戶早已定性。
但是我建議,如果採用Windows Server 的Host,儘可能使用英文系統(語言),通常一個故障出現是時,我們無法立刻排除,只能把錯誤信息(或日誌)反饋給供應商,反饋的信息如果存在中文信息,那麼對於某些外籍的Support來說,就會降低效率,英文是全球的通用語言,所以我建議使用英文。