NetApp DataONTAP 集羣模式 學習筆記1

一.NetApp存儲操作系統

Data ONTAPNetApp最流行的存儲操作系統,它運行在NetApp FASFabric Attached Storage)系統上。FAS系統是被設計爲共享的存儲系統,它支持多種SANNAS存儲協議,並具有靈活的功能。

NetApp還提供在E-系列上運行的SANtricity操作系統。E系列系統是爲某些應用程序應用程序需要專用的SAN存儲,特別是應用程序需要管理自己的數據。E系列系統從2011年收購Engenio發展而來。

Data ONTAP有兩種模式:7模式和集羣也稱作爲羣集模式或CDOT)。FAS系統可以運行在7模式或集羣,但不能同時運行兩種模式。兩種模式都完全相同,都是操作和控制存儲系統上的所有內容。

7模是是從NetApp的原始操作系統Data ONTAP -7G演進。集羣模式是從ONTAP收購的Spinnaker發展而來,羣集模式比7模式更具可擴展性。

羣集ONTAP的早期軟件版本的功能與7模模相比有一些限制。在8.3之前的版本中,NetApp在兩個版本中都發布了DataONTAP以供用戶選擇,兩個版本中7模式具有全部的功能和特性,而集羣模式有更好的可擴展性。而從8.3開始NetApp專注於開發集羣模式,並不在開發7模式。


二.7-mode 可擴展限制

最多兩個FAS控制器可以配置爲高可用性,HA配對並作爲配對系統進行管理。控制器1擁有的磁盤將通過控制器1訪問。由單個節點處理的磁盤量和吞吐量是有最大限制的,可以購買額外的HA對,但是它們對客戶端來說是單獨的系統。

在同一個控制器上磁盤之間無中斷地移動數據,但在控制器這間移動將會中斷客戶端的訪單,並且比較複雜。

 

三.Cluster-mode

爲克服7模式的可擴展性限制,NetApp完全重寫7模式軟件體系結構。集羣的DataONTAP是從2003年收購Spinnaker Networks發展而來。

集羣Data ONTAP能在NAS協議上擴展到24個節點,可以擴展到支持SAN協議的集羣的8個節點。單個集羣可以擴展到138PB。並且可以不中斷地添加磁盤,磁盤櫃和節點。

整個集羣可以作爲單個系統進行管理。集羣可以虛擬化爲不同的虛擬存儲系統,稱爲SVM存儲虛擬機或VserversSVM作爲單個系統顯示給客戶端。可以創建SVM級管理員,SVM管理員呮能訪問自己的SVM。數據可以在集羣中所有節點之間通過集羣互連不中斷地移動。

數據處理遍佈羣集中的不同節點,每個都有自己的CPU,內存和網絡資源,可以提供跨集羣的性能擴展和負載平衡。數據可以在羣集中的多個節點上鏡像或緩存數據。

 

四.磁盤與磁盤櫃

NetApp之前使用光纖通道連接控制器與磁盤架,但現在光纖通道磁盤架已經被其本停用了。

目前的型號使用的是SAS(串行連接SCSI)磁盤架,意思是控制器通過SAS端口和線纜連接到機櫃。NetApp提供3種類型的磁盤 - SSD固態硬盤,SAS硬盤和SATA硬盤。所有3種類型的磁盤都適用於SAS磁盤架。

  1. SSD磁盤提供最佳性能,但每GB的成本最高。

  2. SATA(大容量)磁盤提供最低的性能,但是每GB成本最低。

  3. SAS(性能)磁盤平衡了每GB的性能和成本。

 

五.NetApp存儲網絡

可以通過實施VLAN,可以提高局域網的性能和安全性。將LAN劃分爲第2層的單獨廣播域在終端主機插入的端口上配置接入VLAN,只有該特定VLAN的流量纔會被髮送出訪問端口。配置全部在交換機上進行,終端主機不會知道自己的VLAN

在交換機之間的鏈路上配置Dot1Q中繼,以傳輸需要攜帶多個VLAN的流量。當交換機將流量轉發到另一個交換機時,它將其標記在具有正確VLAN的第2Dot1Q頭,接收交換機只會轉發出來的端那個VLAN

終端主機通常只是一個VLAN的成員,並不會意識到VLAN的存在。一個特殊情況是虛擬化的主機,其中有多個虛擬機連接到不同的子網,在這種情況下,我們需要將VLAN中繼到主機。

 NIC Teaming是將多個物理網卡組合成一個邏輯接口, 以提供冗餘和(可選)負載平衡。NIC Teaming也被稱作爲綁定、負載或聚合。當在交換機上將多個物理端口捆綁爲一個邏輯鏈路上時它被稱爲端口通道(Port Channel),以太通道(Ether channel)或鏈路束(Link Bundle)

在服務器上將網卡進行主/備組合,所有流量都將通過主物理端口傳輸。如果該端口出現故障,流量將自動故障切換到備用端口。對於主備冗餘,不需要在交換機上估任何配置。

主動/主動的NIC Teaming,流量將在所有的物理端口上負載平衡。在端口出現故障的情況下,有多個端口提供冗餘。對於主動/主動模式,服務器和連接的交換機都需要將物理端口加入一個邏輯鏈路,兩端的配置需要一致。用於協商服務器和交換機之間的協議有:靜態802.3adLACP鏈路聚合控制協議,如果服務器和交換機都支持LACP,那麼它是首選。

 

六.SAN存儲入門

SAN術語:

  1. LUN(邏輯單元號)對主機呈現爲磁盤

  2. LUN特定於SAN(而不是NAS)協議

  3. 客戶端被稱爲發起者

  4. 存儲系統稱爲目標

光纖通道是原始的SAN協議,並且仍然非常流行。它使用專用適配器,電纜和交換機。不同於以太網在OSI中的分層(包括物理層),FCP通過光纖通道網絡發送SCSI命令。光纖通道是一個非常穩定可靠的協議,它是無損的,不像TCPUDP,它支持2,4,6,816 Gbps的帶寬

FCP使用WWN全名稱進行尋址,WWN是由16個十六進制字符組成的8字節地址,格式爲:150000f08c0895de WWNN全名稱在存儲網絡中分配給該節點,同一個WWNN可以識別單個網絡節點的多個網絡接口。

在節點上,每個單獨的端爲會被分配不同的WWPN全名稱端口名。多端口HBA在每個端口上具有不同的WWPNWWPN相當於以太網中的MAC地址,WWPN被製造商燒錄,並保證在全球唯一。WWPN分配到客戶端和存儲系統上的HBA上,當配置光纖通道網絡時,我們主要關心WWPN,而不是WWNN

可以配置別名進行更方便的配置和故障排除,例如,我們可以爲具有WWPNExchange Server 150000f08c0895de創建一個名爲EXCHANGE-SERVER的別名。可以在光纖通道交換機和存儲系統上配置別名。

爲了安全起見,將在交換機上配置分區(zoning)以進行控制哪些主機被允許相互通信,在光纖通道網絡上服務器被允許與存儲系統通信,但是服務器將不允許彼此通信。

將正確的LUN呈現給正確的主機至關重要,如果錯誤的主機能夠連接到LUN,那麼它可能會損壞它。分區防止未經授權的主機連接到存儲系統,但它不會阻止主機訪問它所到達的錯誤的LUN。在存儲系統上配置LUN mask,以將LUN鎖定到被授權訪問的主機。爲了保護存儲,需要在交換機上配置分區並存儲系統上的LUN masking.

光纖通道網絡中的每個交換機將被分配一個唯一的Domain ID,網絡中的一個交換機將被自動分配爲根交換機,它將爲其他交換機分配Domain ID。每個交換機根據他們的Domain ID偵聽網絡中的其他交換機以及如何路由去其它機換機。

當服務器或存儲系統的HBA加電時,它將發送一個FLOGI Fabric登錄請求到其本地連接的光纖通道交換機,然後交換機將爲其分配24FCID光纖通道ID地址。分配給主機的FCID由交換機的域ID和主機接入的交換機端口生成。FCID類似於IP地址。由光纖通道交換機使用在服務器及其存儲之間路由流量。交換機維護FCID表到WWPN地址映射到主機所在的端口。

光纖通道交換機共享FLOGI數據庫信息,彼此使用FCNS光纖通道名稱服務(Channel Name Service)。網絡中的每個交換機都會學習每個WWPN在哪裏以及如何路由。

FLOGI Fabric登錄過程完成後,發起者將發送PLOGI端口登錄,基於在交換機上的分區配置,主機將學習它可用的目標WWPN。最後發起主機將向其目標發送PLRI進程登錄到存儲,存儲系統將基於它配置的LUN  masking授予對主機的訪問權限.

在企爲中服務器訪問其存儲是關鍵任務,必須沒有單點失效問題。所以需要配置冗餘光纖通道網絡。每個服務器和存儲系統都將通過冗餘的HBA端口連接到兩個光纖通道網絡。

光纖通道交換機將共享信息彼此分發的信息(例如Domain IDFCNS數據庫和Zoning)。如果其中的一個交換機發生錯誤能夠傳播到另一臺交換機上,這樣使兩臺交換機失效並降低服務器到存儲的連接。因此,不同旁路的FABRIC不要相互交叉連接,兩個旁路fabric保持物理分離。主機連接到兩個FABRICS,但交換機不是.

存儲使用ALUA非對稱邏輯單元分配,存儲系統告訴客戶端哪些是其使用的首選路徑。將擁有LUN的節點的直接路徑標記爲優化路徑,其他路徑被標記爲非優化路徑。

在進程登錄期間,啓動者將檢測可用的端口連接到存儲目標端口組,並且ALUA將會通知哪些是首選路徑,啓動者上的多路徑軟件將選擇哪些路徑或路徑可以到達存儲。所有流行的操作系統都有多路徑軟件,並支持主動/主動或主動/備用路徑。客戶端的某個端口如果失效將自動故障轉移到備用路徑。

客戶端與SAN存儲的連接與以太網的工作方式完全不同。在以太網中,所有的路由和交換決策都是由網絡基礎設備處理的。但在SAN存儲中,由客戶端和主機啓用多路徑智能選擇。

在光纖通道中,發起者將通過FLOGI自動檢測可用路徑,在發起者上的PLOGIPLRI進程將選擇哪個路徑或使用路徑。

iSCSI是互聯網小型計算機系統接口協議,它運行在以太網上,最初被視爲一個較少便宜的替代光纖通道方案。它具有更高的頭部分組開銷,可靠性和性能比光纖通道低。它通過以太網運行,可以共享數據網絡或擁有自己的數據專用網絡基礎設施。TOETCP卸載引擎)卡是可以使用的專業適配器,用於降低服務器的CPU負載。有時稱爲iSCSI HBA

光纖通道使用WWN來識別發起者和目標,iSCSI使用IQN iSCSI合格名稱(或較不常見的EUI擴展唯一)標識符進行尋址。IQN最多可達255個字符,具有以下格式:iqn.yyyy-mm.naming-authority:唯一的名字例如iqn.1991-05.com.microsoft:testHostIQN作爲一個整體分配給主機,類似於Fiber中的WWNNISCSI通過以太網運行,因此各個端口由IP地址尋址。

iSCSI不支持光纖通道FLOGI/ PLOGI / PLRI進程,管理員必須通過指定明確地將發啓者指向其目標端口組中的IP地址之一,然後,它將發現目標的IQNTPG中的其他端口。發啓器上的多路徑軟件可以選擇哪個路徑或要採取的路徑。雖然它運行在以太網上,但iSCSI仍然是SAN協議,在發啓者上仍使用多路徑軟件進行智能選路。

LUN  masking的配置方式與使用光纖通道相同,在存儲系統上使用IQN而不是WWPN識別客戶端。iSCSI不支持Zoning通常在發啓都上配置基於密碼的身份驗證以防範欺騙***。端到端也可以啓用IPSec加密來增強安全性。

以太網光纖通道(FCoE)是最新的SAN協議,隨着10Gbps以太網的出現成爲可能,在相同的適配器上以足夠的帶寬來支持數據和存儲流量。

FCoE使用封裝在以太網中的光纖通道協議,但在以太網上運行。QoS用於保證存儲流量所需的帶寬,它保留了光纖通道的可靠性和性能。

以太網光纖通道(FCoE)的工作方式與原本的光纖通道FCP的工作原理一樣,只是封裝在以太網中,以便可以越過以太網。我們仍然有WWPN的發起者和目標,並使用FLOGIPLOGIPLRI過程。

FCoE中,存儲和數據流量都是共享物理接口,存儲流量使用FCP,因此需要WWPN。以太網數據流量需要一個MAC地址,以太網數據流量和FCP存儲流量的工作原理完全不同,所以我們如何能讓物理接口夠同時支持他們?答案是 - 我們將物理接口虛擬化爲兩個虛擬接口:具有以太網數據流量的MAC地址的虛擬NIC和具有WWPN的虛擬HBA用於存儲流量。存儲和數據流量分爲兩個不同的VLAN中。

光纖通道在發起者和目標之間傳輸是無損協議,它確保沒有幀丟失。以太網不是無損的。 TCP需要得到接收方的確認,以確認數的據到達目的地。如果確認未被收到,數據包將被重新發送。FCoE使用假設無損網絡的FCP,所以我們需要一種方法確保我們的存儲數據包在穿過以太網時不會丟失。

PFC優先流量控制用於以太網的FCoE擴展確保無損到達,PFC以逐跳爲基礎工作。必須在發起者和目標之間的路徑中的每個NIC和交換機都必須支持FCoE。具有FCoE功能的網卡被稱爲CNA融合網絡適配器。

  1. NIC:網絡接口適配器, 傳統的以太網卡,它被用於NAS協議和iSCSI

  2. TOETCP卸載引擎, 用於從服務器的CPU中卸載TCP / IP處理,可以提高NAS協議和iSCSI的性能。

  3. HBA:主機總線適配器。 光纖通道等效於NIC

  4. iSCSI HBA:針對iSCSI優化的以太網TOE卡。

  5. CNA:融合網絡適配器。 支持FCoE10Gb以太網卡。

  6. UTA:通用目標適配器 支持FCoENetApp專有卡或光纖通道。

 

RAID是廉價磁盤或冗餘冗餘陣列,多個物理磁盤組合成一個邏輯單元提供冗餘或改進的性能,或兩者兼而有之。與單個磁盤相比,不同的RAID級別提供不同級別的冗餘和性能,RAID可以通過操作系統的軟件進行管理或由硬件RAID控制器控制。

 

七.NetApp 存儲系統配置

Vol0

  1. 存儲系統出工廠時,它已經安裝有Data ONTAP

  2. 操作系統映像是安裝在CompactFlashCF卡)上

  3. 系統配置信息存儲在硬盤上

  4. 需要一個已存在的聚合和捲來存放系統配置

  5. Aggr0Vol0存在於集羣中的每個節點上

  6. 系統信息包括複製數據庫(RDB)和日誌文件存儲在Vol0

  7. 系統信息在集羣上的節點網絡之間複製

  8. 不要在Vol0上存放用戶數據,它僅用於存儲系統信息

 

複製數據庫(RDB)

  1. RDB包括五個單元:

- 管理網關

- 卷位置數據庫

- 虛擬接口管理器

- 阻止配置和操作管理

- 配置複製服務

  1. 羣集中的某一個節點將被選定爲每個節點的複製RDB信息

  2. 相同的節點在發生故障轉移時將成爲新的主節點

 

管理網關

  1. 管理網關提供管理CLI

  2. 集羣作爲一個整體,可以通過一個命令行對整個集羣進行管理,而不需要對每個節點進行單獨的配置

  3. 通過連接到集羣的管理地址來管理集羣,可以使用GUICLI模式

  4. 當在集羣中發生任何更改時,這些更改將在整個集羣所有節點中複製

 

卷位置數據庫(VLDB)

  1. 卷位置數據庫列出哪個聚合包含哪些卷,以及哪個節點包含哪些聚合

  2. 客戶端可以連接到不同的節點查看卷,而不需要到卷的宿主節點上。VLDB允許集羣中的所有節點跟蹤卷位於哪裏

  3. 管理員可以將卷移動到不同的聚合,這個時候將觸發VLDB更新

  4. VLDB緩存在每個節點的內存中,以優化性能

 

虛擬接口管理器(VIFMGR)

  1. 虛擬接口管理器列出邏輯接口當前開啓在哪個物理接口上

  2. IP地址存在於邏輯接口(LIF

  3. 如果發生故障切換,邏輯接口可以移動到不同的物理接口

 

磁盤塊配置和操作管理(BCOM)

  1. BCOM存儲關於SAN協議的信息

  2. 包含LUNsiGroups (LUN Masking)上的信息

 

配置複製服務(CRS)

配置複製服務是用於MetroCluster去複製配置和操作數據複製到遠程輔協集羣

 

數據SVMs

  1. 數據SVM向客戶端提供數據

  2. 默認(初始)情況下不存在數據SVM

  3. 您必須至少有一個數據SVM幷包含卷以讓客戶端訪問數據

  4. 您可以爲不同部門創建多個數據SVM來創建分離的安全邏輯存儲系統

 

管理的SVM

  1. 管理SVM也稱爲羣集管理服務器,它提供對系統的管理訪問

  2. 管理SVM是在系統設置過程中創建的

  3. 管理SVM不託管用戶卷,它是純粹用於管理訪問

  4. 管理SVM擁有集羣管理LIF,集羣管理LIF可以故障轉移到整個集羣中的另一個物理端口

 

節點SVM

  1. 節點SVM也純粹用於管理訪問

  2. 在系統設置期間也創建節點SVM

  3. 節點SVM擁有該節點的節點管理LIF

  4. 節點管理LIF可以故障切換到同一個節點的另一個物理端口

  5. 就像羣集管理LIF一樣,節點管理LIF也可以用於管理整個集羣,而不僅僅是該個體節點

 

服務處理器(SP)

  1. 服務處理器提供對於控制器的遠程管理功能

  2. SP是控制器內獨立系統,只要電源線連通後,SP例可以使用,即使Data ONTAP處理關閉狀態

  3. 可以通過SPCLI查看環境屬性,如溫度、風扇速度、電壓等

  4. 如果管理IP地址沒有響應,可以通過連接到Data ONTAP CLI重新啓動系統。

  5. 如果有任何環境限制,SP可以關閉控制器,並通知NetApp支持

 

wKioL1nPQX6zzM7OAAD0XSmWHcI453.jpg-wh_50

cluster1::>system nodeservice-processor network modify node cluster1-01

                 -address-type IPv4 -enable true-ip-address 172.23.1.14

                 -netmask 255.255.255.0 gateway172.23.1.254

 

訪問服務處理器

有兩種方式訪問服務處理器

  1. 通過SSH服務處理器的IP地址

  2. 在控制器會話中按Ctrl+G, Ctrl+D結束會話

登陸到SP需要使用一個特別的用戶名:naroot並使用admin的密碼

 

硬件輔助的故障轉移

  1. HA pair對之間的控制器通過HA連接線相互發送keepaives

  2. 如果多個keepalives未收到,開始故障轉移

  3. 通過硬件輔助的故障轉移,如果檢測到自己的控制器失效,SP發送信號到對端控制器並要求立即接管。

 

權,有三種授權

  1. 標準授權

標準許可證是節點鎖定許可證。許可證與節點的序列號相關聯。如果節點離開集羣,許可證將一起離開集羣。只要集羣中至少有一個節點,功能就可以使用。集羣中的每個節點都應具有許可證。

 

  1. 站點授權

站點許可證與集羣序列號相關,而不是特定的節點。功能可用於集羣中的所有節點。如果一個節點離開集羣,許可證仍然會留在站點。

 

  1. 評估授權

評估許可證是演示許可,有過期時間限制。它們與集羣序列號綁定,而不是特定節點。功能可用於集羣中的所有節點。如果一個節點離開了集羣,許可證仍然會留在站點。

 

八.NetApp 物理資源與結構

存儲結構

wKiom1nPQb_gCVM6AAB7IEIeSrM199.jpg-wh_50

 

 

 

 

SVM (Vservers) 結構

wKioL1nPQYDxHLq6AAEnMtgUOMA400.jpg-wh_50


磁盤櫃

您可以在堆疊中最多存放10個磁盤櫃,最佳做法是不要在相同的堆棧中混合媒體類型,將以0結尾ID分配頂層的磁盤櫃。

磁盤(和由它們組成的聚合)屬於某一個節點。如果一個節點失效,HA對等體可以獲取磁盤的所有權,通過SAS連接的HA對等體是主動/備用結構。節點可以通過集羣互連達到其他節點的聚合交換機。

Aggr0 vol0:當系統通電時,它將從CF卡加載Data ONTAP系統映像,然後從磁盤加載系統信息。最低可訪問數據的級別卷(volume)級別,所以需要一個aggrvol來保存系統信息。系統根集合和卷是Aggr0Vol0,系統信息在集羣中的所有節點上覆制,羣集中的每個節點都有Aggr0Vol0。如果系統出廠重置,那麼所有磁盤都將被擦除,然後將再創建一個新的Aggr0,並在每個節點上創建Vol0

Ownership 必須將磁盤分配給HA對中的特定節點以便使用磁盤。默認情況下磁盤自動分配,自動分配可以在StackShelfbay級完成。在Stack級別,Stack中的所有磁盤都將分配給連接到Stack上的IOM-A控制器。Shelf層,Stack中的一半Shelf將分配給每個節點。在bay級別,一個Shelf中的一半磁盤將被分配給每個節點。可以禁用自動磁盤分配,如果這樣做,需要手動分配所有新添加的磁盤到系統然後才能使用。在較小的2節點系統上,可能需要將所有磁盤分配給特定的節點,可以做一個大的聚合,這樣做,系統將作爲主動/待機(而不是每個節點控制一個aggr)。客戶端的讀寫請求將只有一個節點處理。

磁盤分組到RAID組。RAID組被分配給聚合。 RAID組配置是聚合的屬性。RAID組配置指定我們擁有多少個數據磁盤、容量,多少個奇偶校驗磁盤用於冗餘。

RAID組可以是RAID 4RAID-DPRAID 4- 單奇偶校, 存在單個硬盤故障,-aggr0的最小大小爲2個磁盤,- 正常數據聚合的最小大小爲3個磁盤。RAID-DP- 雙重奇偶校驗,能容忍存在兩塊硬盤故障,- aggr0的最小大小爲3個磁盤,- 正常數據聚合的最小大小爲5個磁盤。

RAID組中的磁盤必須是相同類型(SASSATASSD)相同的大小和速度。

如果硬盤發生故障,系統將自動將其替換爲備用磁盤。相同類型、大小和速度的磁盤和數據將被重建。在重建完成之前會出現性能下降。在磁盤系統中應該至少有兩種備用磁盤,每種類型的大小和速度。

聚合可以由一個或多個RAID組組成,小的聚合將只有一個RAID組,更大的聚合將會有多個RAID組,目的是在能力和冗餘之間取得良好的平衡。可以擁有由16個單個RAID-DP組組成的聚合磁盤,這將給14個數據驅動器的容量和2個奇偶校驗磁盤,爲了冗餘不要把一個48個硬盤的聚合只有一個RAID組。這將給46個數據磁盤和2個奇偶校驗磁盤。因爲有太多的機會發生多個驅動器故障。磁盤越多故障的機率越高。使用3個大小爲16個磁盤的RAID組。這樣會提高冗餘能力。聚合中的所有RAID組應儘可能接近相同的大小,HDD的推薦RAID組大小爲1220個磁盤;SSD的推薦RAID組大小爲2028個磁盤。我們還需要考慮性能,擁有的磁盤越多,性能越好,因爲可以同時從多個磁盤讀取和寫入數據。

高級磁盤分區,僅在入門級平臺(FAS2500)和AFF上支持ADP,它使用RAID-DP,不支持MetroCluster。新的系統配有ADP,運行較早版本的Data ONTAP的系統可以轉換爲ADP


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章