小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

大總結(jié):雙活數(shù)據(jù)中心建設(shè)系列之

 jxl0716 2017-07-04

作為業(yè)務(wù)系統(tǒng)的最后一道防線,IT數(shù)據(jù)災(zāi)備中心必須在極端狀況下確保重要業(yè)務(wù)系統(tǒng)穩(wěn)定運行。災(zāi)備方案的出現(xiàn)給業(yè)務(wù)系統(tǒng)提供了完備的數(shù)據(jù)級保護(hù)。然而,傳統(tǒng)的災(zāi)備方案中存在著資源利用率低、可用性差、出現(xiàn)故障時停機時間長、數(shù)據(jù)恢復(fù)慢、風(fēng)險高等問題。數(shù)據(jù)是否安全、業(yè)務(wù)是否連續(xù)運行無中斷成為用戶衡量災(zāi)備方案的關(guān)鍵。作為災(zāi)備方案中的高級別的雙活數(shù)據(jù)中心解決方案,成為應(yīng)對傳統(tǒng)災(zāi)備難題的一把利劍。
傳統(tǒng)的數(shù)據(jù)中心環(huán)境下,災(zāi)備生產(chǎn)中心長年處于休眠狀態(tài),并不參與前端應(yīng)用的數(shù)據(jù)讀寫工作。如果數(shù)據(jù)中心環(huán)境良好,沒有突發(fā)性災(zāi)難的發(fā)生,災(zāi)備中心資源就一直處于閑置狀態(tài),造成用戶投資浪費。而在雙活解決方案中,分布于不同數(shù)據(jù)中心的存儲系統(tǒng)均處于工作狀態(tài)。兩套存儲系統(tǒng)承載相同的前端業(yè)務(wù),且互為熱備,同時承擔(dān)生產(chǎn)和災(zāi)備服務(wù)。這樣不僅解決了資源長期閑置浪費的大問題,還能使數(shù)據(jù)中心的服務(wù)能力得到雙倍提升。
在這樣的背景下,傳統(tǒng)的數(shù)據(jù)災(zāi)備中心越來越不能滿足客戶的要求,用戶希望在成本可控的同時,建立高可靠性、高可用性、高可切換性的雙活數(shù)據(jù)中心。
IBM SVC在雙活數(shù)據(jù)中心建設(shè)的虛擬化存儲解決方案中,有三種主流的雙活基礎(chǔ)架構(gòu)可以滿足我們搭建新形勢下高要求的雙活數(shù)據(jù)中心,值得我們深入探討,分別為:SVC Stretch Cluster、SVCHyperSwap和SVC Local VDM SVC PPRC。這三種架構(gòu)方案針對不同的企業(yè)需求均能發(fā)揮最大的效用,本期專題討論會就是要把這三種架構(gòu)方案聊透徹,講明白,讓企業(yè)在選擇時有所依據(jù),有的放矢,并充分挖掘自身企業(yè)的思維方式,選擇最適合自身企業(yè)發(fā)展的雙數(shù)據(jù)中心虛擬化存儲解決方案。
在本期討論會上,大家針對“基于SVC的三種主流雙活數(shù)據(jù)中心架構(gòu)”的話題踴躍發(fā)言,提出了許多寶貴的觀點和意見,現(xiàn)在我將分享、各類議題觀點和各類問題及回答進(jìn)行梳理總結(jié),如有疏漏,還請不吝賜教。
主要分為以下五個方面:
一、三種SVC雙活數(shù)據(jù)中心虛擬化存儲解決方案的架構(gòu)與特性方面
二、多種SVC雙活數(shù)據(jù)中心建設(shè)方案與非SVC方案的對比方面
三、雙活數(shù)據(jù)中心間鏈路與帶寬方面
四、虛擬化云時代,是采用分布式還是集中式管理方面
五、SVC同城容災(zāi)與異地容災(zāi)方面
六、私有云建設(shè)與雙活建設(shè)架構(gòu)、案例方面

總結(jié)格式為:
【方面】
【分享】
【議題】
【觀點】
【問題】
【疑問】
【問題解答】


一、三種SVC雙活數(shù)據(jù)中心虛擬化存儲解決方案的架構(gòu)與特性方面

【分享】SVC Stretch Cluster
SVC Stretch Cluster也就是SVC拉伸式集群架構(gòu),就是把同一SVC集群中的SVC節(jié)點分散在不同的兩個數(shù)據(jù)中心,它們之間通過光纖鏈路連接,并且需要第三地的仲裁設(shè)備。為了幫助大家深入理解SVC Stretch Cluster,先來理解下SVC Local Cluster:
一套SVC集群最少包含2個節(jié)點,最大8個節(jié)點,兩兩節(jié)點組成一個I/O group,因此一套SVC集群最大可以包含4個I/O group,如下圖所示:

每一個存儲LUN都分配給一個I/O group,你也可以手動轉(zhuǎn)換存儲LUN的I/O group,比如說LUN1屬于I/O group0,當(dāng)I/O group完全不可用時,需要手動轉(zhuǎn)換至I/O group1,因為每一個I/O group均由兩個SVC節(jié)點組成,所以每個存儲LUN均分配給一個優(yōu)先的節(jié)點和一個非優(yōu)先節(jié)點,如下圖所示:

不同的存儲LUN的優(yōu)先節(jié)點可以不一樣,這是SVC集群系統(tǒng)自動負(fù)載和分配的,同一SVC I/O group節(jié)點均衡負(fù)載著存儲LUN,對于讀I/O請求來說,來自于優(yōu)先的SVC節(jié)點,而寫I/O請求在同一I/O group的兩個節(jié)點間同步,一次SVC I/O寫請求,分解為以下5個步驟:
1.主機發(fā)送寫I/O請求至SVC I/O group
2.優(yōu)先的SVC節(jié)點A寫入I/O至緩存,并發(fā)送I/O至同一I/O group的另一SVC節(jié)點B
3.節(jié)點B將寫入I/O至緩存后,并回響應(yīng)至節(jié)點A
4.節(jié)點A收到節(jié)點B的回響應(yīng)后,向主機回響應(yīng)
5.節(jié)點A將緩存寫I/O寫入LUN當(dāng)中
寫I/O流轉(zhuǎn)圖如圖所示:

有人會說了,第5步最后才將緩存數(shù)據(jù)寫入LUN當(dāng)中,那么當(dāng)還沒有寫LUN時,SVC節(jié)點突然斷電了怎么辦?這種情況SVC也是考慮了,每個SVC節(jié)點均配備了UPS電源,可以維持供電,可以保證緩存數(shù)據(jù)正常寫入LUN當(dāng)中。
基于以上這種機制,同一I/O group的兩個SVC節(jié)點是實時同步的,當(dāng)I/O group中的主節(jié)點故障時,另一SVC節(jié)點將接管,并進(jìn)入寫直通模式,并禁止寫緩存,也就是說只有1、5、4三個步驟。
以上是SVC的I/O group在一個數(shù)據(jù)中心的情況,而SVC Stretch Cluster則是將一套SVC集群下的同一I/O group的兩個節(jié)點拉開,分別放在兩個數(shù)據(jù)中心,之前連接SVC的一套存儲,拉開后各放置一套存儲,通過SVC做vdisk鏡像同步。說白了還是同一套SVC集群,同一個I/O group,SVC Local VDM(vdisk mirror)拉開成SVC Stretch VDM,映射給主機的volume還是同一個,這樣一來就不難理解了。SVC、存儲、主機及第三站點光纖連線下圖所示:

對于SVC Stretch Cluster來說,為了防范腦裂,仲裁站點是必需的。首先是configuration node,配置節(jié)點,是配置SVC集群后,系統(tǒng)自動產(chǎn)生的保存著所有系統(tǒng)配置行為的節(jié)點,不能人工更改配置節(jié)點,當(dāng)配置節(jié)點失效后,系統(tǒng)會自動選擇新的配置節(jié)點,配置節(jié)點十分重要,它對SVC節(jié)點仲裁勝利起著決定性作用,仲裁勝利的排序規(guī)則如下:
1.配置節(jié)點
2.距離仲裁站點近的節(jié)點
3.距離仲裁站點遠(yuǎn)的節(jié)點
下圖為SVC Stretch Cluster兩個站點的仲裁配置示意圖:

當(dāng)兩站點間光纖鏈路中斷,第三站點仲裁節(jié)點活動時,腦裂發(fā)生,將通過投票仲裁選舉獲勝的站點,按照上述的仲裁勝利規(guī)則,configuration node位于節(jié)點2,選舉站點2優(yōu)先贏得仲裁,通過站點2恢復(fù)業(yè)務(wù)的正常存儲訪問。

當(dāng)?shù)谌军c仲裁節(jié)點不活動時,不影響主機的正常存儲訪問,但是此時,兩站點間光纖鏈路也中斷了,發(fā)生腦裂,這時因為節(jié)點2為configuration node,它所擁有候選的Quorum將變?yōu)閍ctive Quorum,該Quorum選舉站點2為仲裁勝利站點,通過站點2恢復(fù)業(yè)務(wù)的正常存儲訪問。

另外,SVC版本到了7.2時,又出了一個新功能, 叫做Enhanced Stretched Cluster,這又是什么呢?增強版拉伸集群增強點在哪?之前的Stretched Cluster看似實現(xiàn)了雙活,實則只為數(shù)據(jù)級雙活(SVC VDM),主機訪問SVC實則只訪問了一個I/O group優(yōu)先節(jié)點,另一非優(yōu)先節(jié)點則只是完成了寫緩存同步的任務(wù)而已,無論是local cluster還是Stretched cluster,實際的讀寫卷操作并未通過非優(yōu)先節(jié)點進(jìn)行,通俗的說就是主備模式(ACTIVE-PASSIVE),由于優(yōu)先節(jié)點是 SVC系統(tǒng)自動分配的,可能會出現(xiàn)一種情況是,主機在站點A,但是存儲卷的優(yōu)先節(jié)點卻在站點B,主拷貝的存儲卻在站點A,主機一直訪問了站點B的SVC節(jié)點,再訪問站點A的存儲,這樣的存儲路徑完全不是最優(yōu)的,對主機I/O性能造成影響,但是這些在Enhanced Stretched Cluster中均得到改善,實現(xiàn)了SVC雙節(jié)點雙站點讀寫雙活,在該版本,元素均賦予site屬性,如SVC節(jié)點、主機、存儲等,不同站點的主機對各自站點的SVC節(jié)點和存儲進(jìn)行讀寫操作,對同一volume來說,站點A的主機訪問站點A的SVC節(jié)點,站點A的存儲,站點B的主機訪問站點B的SVC節(jié)點,站點B的存儲,存儲訪問路徑最優(yōu),兩個站點的SVC節(jié)點、主機、存儲都同時活動,實現(xiàn)應(yīng)用級雙活(ACTIVE-ACTIVE),在site模式中,SVC優(yōu)先節(jié)點概念不起作用了,配置了site模式的主機,優(yōu)先訪問活動的同site的SVC節(jié)點和同site的存儲。如下圖所示為讀寫模式下的Enhanced Stretched Cluster 流轉(zhuǎn)圖:
綠色的箭頭為優(yōu)先的讀I/O流轉(zhuǎn),紅色箭頭為站點2的存儲失效后的讀I/O流轉(zhuǎn)。

綠色的箭頭為優(yōu)先的寫I/O流轉(zhuǎn),紅色箭頭為站點1/2的存儲失效后的寫I/O流轉(zhuǎn)。

需要注意是,在寫操作時,兩個站點的SVC節(jié)點的緩存是保持同步的,但是不同于SVC LOCAL CLUSTER,整個寫操作的過程中,SVC節(jié)點的寫操作響應(yīng)在寫入緩存后就發(fā)生了,而不需要等待另一SVC節(jié)點寫緩存完成并回復(fù)響應(yīng),這樣一來,優(yōu)化了整個寫性能,具體過程如下:
1.主機向SVC寫I/O請求。
2.同站點的SVC節(jié)點將寫I/O寫入緩存,并向主機回復(fù)響應(yīng),同時將寫I/O同步至另一站點的SVC節(jié)點。
3.另一站點的SVC節(jié)點將寫I/O寫入緩存,并回復(fù)響應(yīng)。
兩個站點的SVC節(jié)點陸續(xù)將緩存寫入各自站點的存儲當(dāng)中。


【分享】SVC HyperSwap
說到HyperSwap技術(shù),在沒有SVC存儲虛擬化方案之前,HyperSwap技術(shù)主要用于IBM高端DS8000系列存儲當(dāng)中,達(dá)到應(yīng)用和存儲的高可用和雙活需求,但是當(dāng)時DS8000系列存儲成本高昂,適用于核心類或者關(guān)鍵類應(yīng)用的跨站點雙活需求,不利于整體性的雙活數(shù)據(jù)中心規(guī)劃和建設(shè),更別談異構(gòu)存儲的跨中心雙活建設(shè)了。但到了SVC 7.5版本,SVC和V7000都可以支持HyperSwap技術(shù)了,中端存儲的地位瞬間提升了一個檔次,異構(gòu)的各類中端存儲,結(jié)合SVC HyperSwap,都可以實現(xiàn)跨中心的雙活高可用了,那么究竟SVC HyperSwap是什么技術(shù)?先來看看下面這張官方架構(gòu)圖:

從圖中可以看到的是,先從架構(gòu)上:
SVC HyperSwap采用了hyperswap的拓?fù)浼軜?gòu),最少需要兩個I/O Group,同一I/O Group需要兩個節(jié)點,并在同一個站點,而且很驚喜的發(fā)現(xiàn),每個站點均有VDISK,主機映射了四個SVC節(jié)點,存儲路徑更多了,冗余性更高了。
而SVC Stretched cluster采用的是stretched的拓?fù)浼軜?gòu),一個站點一個SVC節(jié)點,最大可達(dá)4個I/O Group,但是同一I/O Group的兩個節(jié)點被分割到兩個站點。兩個站點的存儲通過SVC虛擬化后只有一個VDISK,主機還只是映射兩個SVC節(jié)點。
再從性能上:
SVC HyperSwap利用了更多的資源(包括SVC節(jié)點,線路和SAN交換機端口等),每個站點均含有完全獨立的SVC讀寫緩存,一個站點失效,另一站點也能提供完全的性能,因為讀寫緩存在一站點失效后,不會被DISABLE,兩個站點的讀寫緩存是獨立的兩套,這點特別重要。
而SVC Stretched cluster占用了相對較少資源,能提供更多的VDISK(同一SVC I/O Group VDISK劃分有上限),但是當(dāng)一站點SVC節(jié)點失效后,另一站點的讀寫緩存會被DISABLE,進(jìn)入寫直通模式,性能相對來說會下降,在某些情況下,比如后端存儲性能不夠強,緩存不夠大等。而且主機的存儲訪問路徑會減少一半。
另外一個主要不同點是,SVC HyperSwap有了Volume Groups這樣概念,它能夠?qū)⒍鄠€VDISK組合,共同保持高可用和數(shù)據(jù)的一致性,這對于需要映射多個VDISK的主機來說會有很大幫助,假設(shè)以下場景(主機映射多個VDISK):
1.站點2失效。
2.應(yīng)用仍然從站點1進(jìn)行讀寫,只在站點1進(jìn)行數(shù)據(jù)更新。
3.站點2恢復(fù)。
4.站點1的VDISK開始同步至站點2的VDISK
5.站點1在VDISK同步時突然失效。
如果主機的多個VDISK沒有配置Volume Groups,主機將很大可能無法通過站點2的數(shù)據(jù)恢復(fù)業(yè)務(wù),因為站點2的多個VDISK正在被同步,尚未同步完成,它們的數(shù)據(jù)并不在同一時間點,掛在起來無法使用,那么這樣的話只能寄希望于站點1。
但是如果主機的多個VDISK配置成Volume Groups,主機是能通過站點2的數(shù)據(jù)進(jìn)行恢復(fù)的,雖然數(shù)據(jù)尚未同步完成,但多個VDISK間的數(shù)據(jù)一致性是可以保證的,仍然屬于可用狀態(tài),只不過數(shù)據(jù)不完全而已。
與SVC Stretched cluster類似的是,SVC HyperSwap中的主機、SVC節(jié)點和存儲均被賦予了站點屬性,同時也需要配備第三站點作為防范腦裂的仲裁站點。
接著看下面這張圖:

可以看見,一個hyperswap卷是由以下幾個部分組成:
1.4個VDISK(可以是THICK/THIN/COMPRESSED,也可以被加密)
2.1個ACTIVE-ACTIVE的REMOTE COPY RELATIONSHIP(系統(tǒng)自己控制)
3.4個FLASH COPY MAPS(FOR CHANGE VOLUMES)(系統(tǒng)自己控制)
4.額外的ACCESS IOGROUP(方便IO GROUP FAILOVER)
基于該hyperswap卷技術(shù),實現(xiàn)了兩個站點VDISK的ACTIVE-ACTIVE。站點1的MASTER VDISK寫入變化時,被寫入站點1的Change Volume中(基于FLASH COPY,變化數(shù)據(jù)寫入快照目標(biāo)卷,原卷數(shù)據(jù)不變),站點2的AUX DISK寫入變化時,同樣被寫入站點2的Change Volume中。一段時間后,系統(tǒng)自動停止VDISK與Change Volume間的快照關(guān)系,Change Volume將回寫變化數(shù)據(jù)至VDISK,VDISK將通過SVC PPRC(REMOTE COPY)同步變化數(shù)據(jù)至另一站點的VDISK中,之后,站點VDISK又將重新與Change Volume建立快照關(guān)系,與根據(jù)這一原理,不斷往返變化數(shù)據(jù),保持四份COPY數(shù)據(jù)的同步的關(guān)系,當(dāng)然這些都是SVC hyperswap系統(tǒng)自動完成的,用戶無需干預(yù)。
另外,在hyperswap的卷復(fù)制ACTIVE-ACTIVE關(guān)系中,我們可以看到依然存在MASTER或者AUX的標(biāo)簽,對于主機來說,兩個站點的其中一個I/O Group的VDISK是作為PRIMARY,提供讀寫,所有讀寫請求必須經(jīng)過該I/O Group,然而hyperswap會自動決定是本站點的I/O Group的VDISK作為PRIMARY,還是主要承擔(dān)I/O流量的I/O Group的VDISK作為PRIMARY。在首次創(chuàng)建hyperswap卷和初始化后,被標(biāo)簽為MASTER的VDISK作為PRIMARY,但是如果連續(xù)10分鐘以上主要I/O流量是被AUX的VDISK承擔(dān),那么系統(tǒng)將會轉(zhuǎn)換這種MASTER和AUX的關(guān)系,從這點上也可以看出與SVC Stretched cluster的不同,雖然SVC節(jié)點一樣被賦予站點屬性,但SVC hyperswap在另一站點仍然活動時,不局限于只從本地站點讀寫,它會考量最優(yōu)存儲訪問I/O流量,從而保持整個過程中主機存儲讀寫性能。另外需要注意的是主要的I/O流量是指扇區(qū)的數(shù)量而不是I/O數(shù)量,并且需要連續(xù)10分鐘75%以上,這樣可以避免頻繁的主從切換。
上面講了這么多,那么SVC hyperswap的讀寫I/O又是如何流轉(zhuǎn)的呢?
讀I/O見下圖:

可以看到,每個站點第一次HyperSwp初始化后,先各自從各自站點的SVC節(jié)點讀操作,綠色線為讀操作I/O流轉(zhuǎn)。
寫I/O見下圖:

可以看到,圖中顯示為站點1的主機一次寫I/O全過程:
1.主機向本站點1的其中一個SVC節(jié)點發(fā)送寫I/O請求。
2.該SVC節(jié)點2將寫I/O寫入緩存,并回復(fù)主機響應(yīng)。
3.該SVC節(jié)點2將寫I/O寫入節(jié)點1緩存,并同時發(fā)送寫I/O至站點2的節(jié)點3和節(jié)點4。
4.SVC節(jié)點1、3、4回復(fù)節(jié)點2的響應(yīng)。
5.兩個站點的SVC節(jié)點分別將緩存寫入各自站點的存儲當(dāng)中。


【分享】SVC Local VDM SVC PPRC
上面通過大量篇幅介紹了SVC Stretched Cluster和SVC HyperSwap,這兩種存儲虛擬化雙活數(shù)據(jù)中心解決方案均為ACTIVE-ACTIVE模式SVC方案,那么SVC Local VDM SVC PPRC又是什么?SVC Local VDM即本地SVC VDISK MIRROR,跟Stretched Cluster方案采用了類似的存儲復(fù)制技術(shù),只不過是本地非跨站點的VDM,又跟SVC HyperSwap方案采用了相同的SVC PPRC遠(yuǎn)程復(fù)制和Consistency一致性組技術(shù),而且對SVC的版本沒有很高的要求,SVC 6.4版本就可以實現(xiàn),可以說是另外兩種技術(shù)的爸爸,另外兩種技術(shù)均是由它演變升級而來,既然是較老的技術(shù),為什么還要再這里談呢?還不是ACTIVE-ACTIVE,只是ACTIVE-STANDBY。
當(dāng)然有必要,有以下幾個必要點:
1.利用SVC Local VDM SVC PPRC可以實現(xiàn)本地雙同步數(shù)據(jù)保護(hù) 災(zāi)備同步數(shù)據(jù)保護(hù),還很容易實現(xiàn)異地異步數(shù)據(jù)保護(hù)。充分保護(hù)本地級存儲數(shù)據(jù),和本地可靠性。
2.結(jié)合PowerHA EXTEND DISTANCE(PowerHA XD)很容易實現(xiàn)本地雙主機 災(zāi)備主機熱備。本地主機故障,本地主機互相切換,本地雙主機故障,主機和存儲均切災(zāi)備主機和存儲,十分靈活,可將不同系統(tǒng)的主機分別布署在兩個數(shù)據(jù)中心。兩個數(shù)據(jù)中心均各自承擔(dān)些許業(yè)務(wù)。
3.無需第三站點仲裁,第三站點對于大部分企業(yè)來說,都基本相當(dāng)于虛設(shè),怎么說呢,第三站點基本都放置于本地站點,本地站點故障時,第三方站點和本地站點相當(dāng)于全部故障,需要人為干預(yù),才能在災(zāi)備站點恢復(fù)業(yè)務(wù),復(fù)雜度高。如果真正建立第三站點,又需要增加大量成本。
4.無需擔(dān)心雙中心間光纖光衰、線路延時、抖動甚至中斷,充分保護(hù)本地站點系統(tǒng)的可靠性。發(fā)生腦裂時,基于HACMP XD,生產(chǎn)端的主機數(shù)多于災(zāi)備站點,發(fā)生腦裂仲裁時,生產(chǎn)站點總是會贏得仲裁勝利,將自動關(guān)閉災(zāi)備站點主機,生產(chǎn)站點不受任何影響。對于這種情況來說,如果是ACTIVE-ACTIVE方式的腦裂情況,特別是在將所有各類異構(gòu)存儲均接入SVC,通過兩站點間SVC復(fù)制,腦裂現(xiàn)象的影響面將擴(kuò)大至整個數(shù)據(jù)中心業(yè)務(wù)層面,而不是僅僅小部分業(yè)務(wù)造成中斷。
那么,有人會說,題目是雙活數(shù)據(jù)中心建設(shè),SVC Local VDM SVC PPRC不應(yīng)該算是一種雙活建設(shè)方案,只是實現(xiàn)了數(shù)據(jù)級存儲雙活。其實不然,利用該架構(gòu),實則實現(xiàn)了雙活中心的基礎(chǔ)架構(gòu),應(yīng)用層雙活可以通過配合軟件架構(gòu)的方式來實現(xiàn),具體內(nèi)容將在“雙活數(shù)據(jù)中心建設(shè)系列之---基于軟件架構(gòu)的雙活數(shù)據(jù)中心建設(shè)方案深入探討”主題中詳細(xì)探討。先來看下該SVC方案的架構(gòu),如圖所示:

可以看到,該方案需要兩套SVC集群,最少需要2個I/O Group,4個節(jié)點,本地和災(zāi)備各一套SVC集群,一個I/O Group,兩個節(jié)點。該架構(gòu)與HyperSwap架構(gòu)有點類似,不同的是該架構(gòu)本地站點的存儲有兩個,災(zāi)備站點存儲為1個,本地站點兩個存儲通過SVC做VDM,本地站點和災(zāi)備站點存儲通過兩套SVC做SVC PPRC,實現(xiàn)了三份存儲數(shù)據(jù)實時同步。本地站點兩主機掛載本地站點的存儲,災(zāi)備站點主機掛載災(zāi)備站點的存儲,三臺主機通過HACMP XD(基于SVC PPRC)實現(xiàn)跨站點高可用,當(dāng)本地站點的主機故障時,自動切向本地備機,業(yè)務(wù)中斷時長5分鐘以內(nèi),具體根據(jù)HACMP切換時長;當(dāng)本地站點主備機全部故障時,本地存儲和本地主機均自動切向災(zāi)備主機,業(yè)務(wù)中斷時長5分鐘內(nèi),具體根據(jù)HACMP切換時長;本地一臺備存儲故障時,完全不受影響;本地一臺主存儲故障時,自動切往本地備存儲,業(yè)務(wù)I/O中斷1分鐘以內(nèi)。
另外,該架構(gòu)的數(shù)據(jù)讀寫流轉(zhuǎn)在上面的SVC LOCAL CLUSTER中已經(jīng)詳細(xì)介紹,只是多了在SVC I/O Group節(jié)點間寫同步后,再同步一份寫I/O至災(zāi)備I/O Group的兩節(jié)點,這里不再贅述。


【議題1】SVC HyperSwap和SVC Stretch Cluster做為A-A模式的SVC虛擬化存儲解決方案,有何缺陷或者風(fēng)險?
【觀點1】hyperswap不適合rac這種跨站點讀寫的雙活
【觀點2】據(jù)我了解到ESC模式下的iogroup并不是真正的冗余模式。比如我有兩個iogroup,所有的業(yè)務(wù)都在iogroup1上,當(dāng)?shù)谝粋€iogroup的兩個節(jié)點都宕機的話前端業(yè)務(wù)也就中斷了,業(yè)務(wù)并不會自動切換到iogroup2上。
【觀點3】對的,SVC ESC只有兩個節(jié)點,兩個節(jié)點同時故障時,需要手動干預(yù)才能恢復(fù)業(yè)務(wù),所以為了更高、更苛刻的冗余時,出現(xiàn)了SVC HYPERSWAP,但是實際情況兩個SVC節(jié)點同時故障的情況還是非常少。
【觀點4】還是需要看業(yè)務(wù)類型,比如oracle rac,dg,vmware等,不一樣的業(yè)務(wù)要求不同。
【議題2】SVC Local VDM SVC PPRC作為A-S模式的SVC虛擬化存儲解決方案,有何缺陷或者風(fēng)險?
【觀點1】SVC Local VDM是作為本地高可用的解決方案,缺陷或者風(fēng)險來講如果同SVC PPRC只是作為本地數(shù)據(jù)高可用,無法做到容災(zāi)級別。
SVC PPRC是解決站點級別的災(zāi)備解決方案,所謂的缺陷是要跟誰去對比。比如作為存儲復(fù)制解決方案跟數(shù)據(jù)庫復(fù)制方案比,各有優(yōu)缺點。
【觀點2】SVC Local VDM SVC PPRC做為數(shù)據(jù)級本地保護(hù)和容災(zāi),結(jié)合HACMP只是ACTIVE-STANDBY,像數(shù)據(jù)庫級別的復(fù)制,主要還是事物級別的TCPIP同步,性能和效率當(dāng)然沒有SVC VDM和PPRC高,但是一致性從事物層得到了保證,但是數(shù)據(jù)庫復(fù)制技術(shù)也是有限制的,它主要是通過事物日志復(fù)制和對端重寫來實現(xiàn),但日志有時候也不能覆蓋全部數(shù)據(jù)庫操作,比如XML和LOB格式的字段,是沒法通過日志復(fù)制傳輸?shù)?,有些?yīng)用為了執(zhí)行效率高,對數(shù)據(jù)庫采取了不記日志操作。


【問題1】
【疑問一】SVC的ESC拉伸雙活模式Lun是否可以就近讀寫?hperswap模式是否可以就近讀寫?SVC的ESC拉伸雙活模式Lun是否可以就近讀寫?hperswap模式lun是否可以就近讀寫?還是只能讀對端lun?造成這個問題的原因是什么?
【問題解答一】SVC StretchCluster與SVC HyperSwap的最大特性就是SVC節(jié)點“站點化”,主機節(jié)點“站點化”,存儲節(jié)點“站點化”,所以這兩種模式都是同一站點的主機讀寫同一站點的SVC的節(jié)點,SVC節(jié)點讀寫同一站點的存儲節(jié)點。
所以這兩種ACTIVE-ACTIVE存儲雙活方案,是就近讀寫的,另外SVC HyperSwap不僅僅是就近讀寫,如果本地站點的IO流量連續(xù)10分鐘低于25%,而對端站點的IO流量連續(xù)10分鐘高于75%,那么SVC HyperSwap將反轉(zhuǎn)讀寫關(guān)系,優(yōu)先讀寫對端站點。
【疑問二】感謝解答,但我認(rèn)為hyperwap雙活模式下,不可以就近讀寫。兩個站點都要去找該lun的owner站點去寫,然后鏡像到另一端緩存。因SVC與vplex的全局一致緩存不同SVC的hperswap是兩套緩存表。正式因為這種情況,導(dǎo)致會有主機頻繁寫對端lun的情況出現(xiàn),導(dǎo)致lun owner關(guān)系反轉(zhuǎn)。 不知道我的看法是否正確?謝謝
【問題解答二】不對,1.SVC hperswap雖然是兩套緩存表,但是緩存與緩存的同步是在SVC節(jié)點間進(jìn)行的,與主機無關(guān),主機只是讀寫同站點的SVC節(jié)點和存儲,不會去讀寫另一站點的SVC節(jié)點,當(dāng)主機寫同站點的SVC節(jié)點后,SVC立即返回響應(yīng),表明已經(jīng)完成寫操作,剩余的緩存同步和落盤的事情由SVC內(nèi)部完成。
2.SVC hperswap架構(gòu),每個站點都有各自的MASTER和AUX VDISK,主機優(yōu)先讀寫MASTER VDISK,直到主機出現(xiàn)連續(xù)10分鐘75%以上的I/O讀寫在AUX VDISK上,AUX和MASTER的關(guān)系將反轉(zhuǎn),基于這樣一種機制,MASTER和AUX的關(guān)系不會不停的反轉(zhuǎn),而是既控制住了反轉(zhuǎn)頻率,又在MASTER VDISK站點出現(xiàn)性能問題時,能夠及時反轉(zhuǎn)關(guān)系,提升性能。
【問題2】
【疑問一】數(shù)據(jù)不完全,如何實現(xiàn)數(shù)據(jù)可用?
請問:'但是如果主機的多個VDISK配置成Volume Groups,主機是能通過站點2的數(shù)據(jù)進(jìn)行恢復(fù)的,雖然數(shù)據(jù)尚未同步完成,但多個VDISK間的數(shù)據(jù)一致性是可以保證的,仍然屬于可用狀態(tài),只不過數(shù)據(jù)不完全而已。'既然數(shù)據(jù)不完全,然后和實現(xiàn)可用?
【問題解答】1.多個VDISK配置成了Volume Groups的形式,那么兩個站點的多個VDISK的一致性是同時的,也就是說站點1的多個VDISK同時寫,站點2相應(yīng)的多個VDISK寫也是同時寫的,這樣一來,每次站點2的多VDISK寫入后,從存儲視角來說,多VDISK是數(shù)據(jù)一致性的,站點2的主機是能利用這一致性的多個VDISK的,在允許數(shù)據(jù)一定丟失的情況下,即使同步?jīng)]有完成,還是可以利用的。而如果是主機擁有多個VDISK,但是這多個VDISK不配置成Volume Groups的話,兩個站點僅僅是單個VDISK是一致性的,站點2的多個VDISK的同步時間戳不一樣,不能保證多VDISK同時是一致性的,如果同步?jīng)]有完成,那么站點2可能無法利用這些VDISK。
2.存儲的一致性組是建立在存儲視角的,假如是數(shù)據(jù)庫的話,更好的辦法是從數(shù)據(jù)庫事物的層面保持一致性,但是當(dāng)今存儲沒有誰能做到這一點。
【疑問二】還是沒太明白,數(shù)據(jù)不完全跟數(shù)據(jù)可用如何理解?
【問題解答】主機對文件系統(tǒng)的一次寫是對多個PV分別寫,對吧?該站點的PV與站點2的PV同步時,如果沒有配置同步卷組是不是同步有先有后?有可能這個卷已經(jīng)同步了,那個卷還沒有同步,那這時,站點1故障了,站點2的這些存儲卷是不是得有邏輯錯誤了?是不是不可用了?那如果配置了同步卷組,站點2的的多個PV是一起同步的,本地站點的多個卷一次寫操作,站點2的多個卷也是一起寫的,是不是就是一致性卷組了?當(dāng)站點1故障了,即使站點2還沒有完全同步完,這些一致性卷組是不是沒有邏輯問題了?是不是可用的?
【問題3】
【疑問一】IBM svc ESC和 hyperswapcache工作模式和lun的讀寫訪問方式區(qū)別?EMC vplex的顯著區(qū)別是什么?IBM svc ESC和 hyperswapcache工作模式和lun的讀寫訪問方式區(qū)別?我們都知道EMC vplex metro是全局一致性緩存,緩存形式的不同,SVC和vplex在雙活特性上帶來了哪些不同?
【問題解答一】緩存形式的不同,VPLEX沒有寫緩存,這就意味著寫性能會有一定的影響
【問題解答二】1.IBM svc ESC是SVC LOCAL CLUSTER的跨站點拉伸版,主要是利用了VDM的技術(shù)和原理,而SVC hyperswap主要利用了FLASH COPY和SVC PPRC技術(shù)和原理;SVC ESC緩存同步是在同一I/O GROUP的兩個節(jié)點進(jìn)行,而SVC HYPERSWAP既有同一I/O GROUP又有不同I/O GROUP的兩個節(jié)點緩存同步
2.IBM svc ESC和SVC hyperswap讀寫方式均是就近原則,本站點讀寫本站點的SVC節(jié)點和存儲。但SVC hyperswap較高級的地方在于,它會判斷兩個站點的讀寫I/O流量,如果某個站點I/O流量連續(xù)10分鐘占比75%以上,那么它將反轉(zhuǎn)MASTER VDISK和AUX VDISK的角色。
3.EMC vplex metro是全局一致性緩存,但它沒有寫緩存,雖然都是各自站點就近讀寫,但是增加了后端存儲壓力,寫性能上可能會受影響。舉例來說,像SVC FLASH存儲,在關(guān)閉了SVC寫緩存的情況下,整個性能沒有打開SVC寫緩存高。
【疑問二】據(jù)我了解到ESC具有就近讀寫功能,HyperSwap沒有這個功能吧?
【問題解答】兩個都有就近讀寫功能,HYPERSWAP所需的SVC版本還比SVC ESC高,把SVC節(jié)點、存儲和主機都站點化了,有更多的節(jié)點冗余和更多的性能優(yōu)化。
【疑問三】PPRC是啥玩意?
【問題解答】point-to-point remote copy,也就是metro-mirror
【問題4】
【疑問一】SVC HyperSwap 和SVC Stretched Cluster適合哪些場景?
SVC HyperSwap 和SVC Stretched Cluster適合哪些場景?哪些場景選擇SVC HyperSwap 更有優(yōu)勢?二者的性價比如何?
【問題解答一】首先這兩者都是高可用解決方案中的兩個技術(shù)代表
SVC HyperSwap可以說是對 SVC esc 技術(shù)靈活性的補充或者說是增強
具體來說V7K V5K 是無法做到的ESC的,同樣IBM V9000也無法做到ESC.
而hyperswap技術(shù)對 V7K V5K V9000開啟了大門,使這些產(chǎn)品也有高可用的特性。
【問題解答二】樓上正解,如果是沒用SVC,僅僅用hyperswap技術(shù),那么性價比肯定是V7K V5K V900之類的更高,只用存儲就實現(xiàn)了跨中心存儲雙活。
如果用了SVC,hyperswap用了4個以上的SVC節(jié)點,Stretched Cluster只用了兩個,但是hyperswap的性能和可靠性較Stretched Cluster有所增強,但Stretched Cluster又能擴(kuò)展到今后的異地災(zāi)備,如果簡單的以價格來區(qū)分兩者的化,那么首選Stretched Cluster,如果要綜合比較的話,兩者真的不相伯仲,要看你的需求。
如果你不關(guān)心價格,就是要最好的高可用,最好的性能優(yōu)化,對劃分的卷上限1024也可以接受的,不要求將來實現(xiàn)擴(kuò)展同城或者異地災(zāi)備的,運維技術(shù)也能保障,那就推薦hyperswap,如果你關(guān)心價格,對性能和高可用要求不那么苛刻,將來想實現(xiàn)異地或者同城災(zāi)備擴(kuò)展的,那么推薦Stretched Cluster,但是SVC hyperswap和SVC Stretched Cluster都要求有第三站點仲裁,而且對兩個站點間的鏈路的穩(wěn)定性、可靠性、性能要求很高。
【疑問二】你好,esc用兩個節(jié)點就夠了嗎,我看了一個文檔,esc也推薦最少4個節(jié)點,2個為1個iogroup。4個節(jié)點比兩個節(jié)點的優(yōu)勢有哪些呢?
【問題解答三】ESC最少兩個節(jié)點,在主機較多、SVC節(jié)點負(fù)載較大的情況下,推薦4節(jié)點,甚至6節(jié)點、8節(jié)點,將I/O讀寫分散于不同的I/O GROUP上,如果僅僅是1個I/O GROUP,那么所有主機均通過這個I/O GROUP讀寫存儲,是否負(fù)載能滿足,是需要考慮的。從冗余上來說,1個I/O GROUP和2個I/O GROUP都是一樣的。都是靠同一I/O GROUP的兩個SVC節(jié)點來冗余的。
【問題5】
【疑問】V7000 HYPERSWAP實施請教
HyperSwap中如何保證數(shù)據(jù)的一致性嗎?是如何配置的呢?
看到論壇里面說到SVC hyperswap通過VOLGRP數(shù)據(jù)的一致性,但是我在實施V7K (7.7.1.3)hyperswap時候,GUI中沒看到volume group。
【問題解答】建議從CLI中配置HYPERSWAP
1.創(chuàng)建一致性組
例如:mkrcconsistgrp –name hsConsGrp0
2.創(chuàng)建master vdisk
例如:mkvdisk –name hsVol0Mas –size 1 –unit gb –iogrp 0 –mdiskgrp siteA-ds8k -accessiogrp 0:1
3.創(chuàng)建AUX vdisk
例如:mkvdisk –name hsVol0Aux –size 1 –unit gb –iogrp 1 –mdiskgrp siteB-ds8k
4.創(chuàng)建Change vdisk
例如:mkvdisk –name hsVol0MasCV –size 1 –unit gb –iogrp 0 –mdiskgrp siteA-ds8k -rsize 0% -autoexpand
例如:mkvdisk –name hsVol0AuxCV –size 1 –unit gb –iogrp 1 –mdiskgrp siteB-ds8k -rsize 0% -autoexpand
5.創(chuàng)建relationship
例如mkrcrelationship –master hsVol0Mas –aux hsVol0Aux –cluster testCluster -activeactive –name hsVol0Rel
6.開始同步
例如:mkrcrelationship –master hsVol0Mas –aux hsVol0Aux –cluster testCluster -activeactive –name hsVol0Rel –sync
或者7.創(chuàng)建relationship并加入一致性組
例如:mkrcrelationship –master hsVol0Mas –aux hsVol0Aux –cluster testCluster -activeactive –name hsVol0Rel –consistgrp hsConsGrp0
或者8.創(chuàng)建relationship并加入一致性組同步
例如:mkrcrelationship –master hsVol0Mas –aux hsVol0Aux –cluster testCluster -activeactive –name hsVol0Rel –consistgrp hsConsGrp0 -sync
9.建立master和AUX的VDISK與對應(yīng)change vdisk的relationship
chrcrelationship –masterchange hsVol0MasCV hsVol0Rel
chrcrelationship –auxchange hsVol0AuxCV hsVol0Rel
完成
【問題6】
【疑問】SVC主流雙活方式之一Stretch Cluster的實現(xiàn)方式
Stretch Clustr,也叫拉伸式集群,在該模式下,本地的A,B站點是雙活的,遠(yuǎn)程C站點可以用Global Mirror實現(xiàn)兩地三中心,請專家通過實例講解這種雙活方式實現(xiàn)雙活的原理以及這種方式有沒有風(fēng)險?
【問題解答】1.實現(xiàn)雙活原理:
svc stretch cluster是SVC LOCAL CLUSTER的拉伸版,其實現(xiàn)原理和技術(shù)主要是SVC VDM,它需要最少一套I/O GROUP,兩個SVC節(jié)點作為需求,每個站點的主機均讀寫各自站點的SVC節(jié)點和存儲,對于寫操作來說,先寫某個SVC節(jié)點的緩存,再將該緩存同步至另一站點的SVC節(jié)點中,最后分別落盤,在另一站點的主機寫操作也是同樣,為了保證兩邊存儲寫數(shù)據(jù)的一致型,不導(dǎo)致臟讀,SVC用了鎖排斥技術(shù)。另外SVC利用在雙活的基礎(chǔ)上,利用Global Mirror技術(shù)可以將SVC的數(shù)據(jù)異步地同步至異地站點的V7000、SVC等中。
2.風(fēng)險
伴隨著雙活,風(fēng)險也是當(dāng)然的,沒有哪一種技術(shù)是十全十美的,按照企業(yè)的需求都有用武之地,SVC Stretch cluster的風(fēng)險在于同一I/O GROUP只有兩個SVC節(jié)點,本地一個,災(zāi)備一個。本地SVC節(jié)點故障,則切往了災(zāi)備SVC節(jié)點,冗余度來說,本地有點單點的感覺;另外SVC Stretch cluster對兩個站點間的鏈路要求很高,需要穩(wěn)定度高,時延和抖動盡量小,如果兩中心間鏈路中斷,那么兩個中心的SVC節(jié)點讀寫將HOLD住,直到第三站點仲裁選舉出勝利站點,如果所有業(yè)務(wù)主機均通過SVC節(jié)點訪問存儲,所有業(yè)務(wù)將有一段時間被中斷,中斷時間取決于兩個站點間距和仲裁時間。
【問題7】
【疑問】在一套SVC集群的,節(jié)點之間的緩存數(shù)據(jù)同步是通過什么途徑進(jìn)行的?是管理網(wǎng)絡(luò)?是san存儲?是fc鏈路?
【問題解答】通過fc鏈路。節(jié)點間通信走cluster zone內(nèi)的端口,或者通過cli限定只走某些端口。
【問題8】
【疑問】關(guān)于lun和raid group的問題
劃分lun時,一個lun可以來自不同的raid group嗎?
【問題解答】可以
1.如果劃LUN是通過普通存儲化,沒有經(jīng)過SVC,那么每個LUN和POOL是對應(yīng)的,POOL又跟RAID GOUP是對應(yīng)的,只有RAID GROUP的RAID形式是一致的才能放到同一個POOL中(一個RAID GROUP對應(yīng)一個MDISK),所以該LUN劃分出來后,該LUN是經(jīng)過了多個MDISK虛擬化之后的產(chǎn)物,BLOCK分布于多個MDISK上,所以可以來自多個相同RAID形式的RAID GROUP,但無法來自多個不同RAID形式的RAID GROUP
2.如果劃LUN是通過SVC劃出來的,但是底層存儲通過IMAGE模式透穿至SVC的,也就是說底層存儲LUN--->SVC LUN是一一對應(yīng)的,這時SVC上的LUN在底層存儲上的分布也是來源于相同RAID形式的RAID GROUP
3.如果劃LUN是通過SVC劃出來的,但是底層存儲通過MANAGE模式映射給SVC管理的,如底層存儲RAID 5組成如下一個邏輯關(guān)系:MDISK--->RAID 5 POOL--->存儲LUN1--->SVC MDISK1,底層存儲RAID 10組成如下一個邏輯關(guān)系:MDISK--->RAID 10 POOL--->存儲LUN2--->SVC MDISK2,再通過SVC MDISK1和SVC MDISK2劃出一個新的SVC VDISK,這時的SVC VDISK的BLOCK是分布于不同RAID形式的RAID GROUP的。
【問題9】
【疑問】SVC Local VDM和SVC PPRC數(shù)據(jù)同步的粒度是?是實時更新數(shù)據(jù)嗎?
【問題解答】都是實時同步的,因為每次的寫SVC節(jié)點的操作,都會要等待另一SVC節(jié)點的寫響應(yīng),才會認(rèn)為是一次完整的寫操作周期。補充一點,同步的顆粒度是bitmap(位圖)
【問題10】
【疑問】SVC管理的存儲擴(kuò)容,SVC會不會出現(xiàn)瓶頸?
目前的環(huán)境下面一套svc有一個IO GROUP,下面掛載了不同的存儲,現(xiàn)在相對下面的掛載的存儲擴(kuò)容,擔(dān)心隨著后面存儲容量的擴(kuò)大,SVC會不會出現(xiàn)瓶頸?怎么判斷?
【問題解答】上面這個問題來說,如果僅僅從后端掛載的存儲容量擴(kuò)容,SVC是會不出現(xiàn)性能瓶頸的,SVC最大支持4096個VDISK,如果后端存儲擴(kuò)容,劃分出來的卷的數(shù)量也越來越多,甚至需要超過4096個VDISK,那么SVC僅僅是不再支持劃分而已,性能不會出現(xiàn)問題。如果從SVC映射的主機數(shù)量角度來說,如果SVC映射的主機數(shù)量越來越多,那么均分至每一個SVC I/O Group優(yōu)先節(jié)點的主機數(shù)量也越來越多,這時就需要考慮SVC節(jié)點的性能瓶頸,因為SVC節(jié)點的緩存容量有限,主機數(shù)量的增加意味著所有主機平均每次需要寫入的IO量增多,假如增大至單個SVC節(jié)點緩存不足夠容納時,這時就會開始出現(xiàn)性能瓶頸,就需要開始新增SVC I/O Group了。
其實SVC的性能很不錯,借用一下前人測試的結(jié)果:
“”單論SVC的節(jié)點性能,在前兩代的CF8節(jié)點上做過SPC-1測試,16個V7000在8個CF8節(jié)點管理下,SPC-1性能達(dá)到50多萬IOPS?,F(xiàn)在最新的DH8節(jié)點,性能是CF8的3-4倍,那么性能可達(dá)到150-200萬IOPS,每個I/O Group可達(dá)到50萬IOPS?!啊?br>我們可以利用監(jiān)控來判斷SVC節(jié)點是否已飽和,如TPC軟件,也可以用SVC自身WEB界面上的監(jiān)控來初步判斷。


二、三種SVC雙活數(shù)據(jù)中心建設(shè)方案與非SVC方案的對比方面。

【分享】三種SVC雙活架構(gòu)詳盡對比
在上面的章節(jié)中,我們已經(jīng)深入探討了基于SVC的三種主流雙活數(shù)據(jù)中心架構(gòu),詳細(xì)的介紹了每種架構(gòu)的基本模式、特性、原理和I/O讀寫等方面內(nèi)容,為了更方便與直觀的展示三種架構(gòu)的區(qū)別和特性,列表如下:



上面的列表很直觀的展示了三種SVC架構(gòu)的區(qū)別和共同點,可以看到,三種架構(gòu)在不同的場景和不同的高可用要求下,均有用武之地。SVC Stretched Cluster和SVC HyperSWAP架構(gòu)實現(xiàn)了雙站點ACTIVE模式,但這兩種模式有兩個弊端,一是對數(shù)據(jù)庫雙活的實現(xiàn),依舊需要配合數(shù)據(jù)庫軟件層的方案解決。二是對兩個站點間的線路要求非常高,一旦線路中斷(這種情況并非不可能,尤其在當(dāng)下各種修路、修地鐵,多家運營商的裸光纖都在同一弱電井,同時斷的可能性大增),將對兩個站點的所有主機均造成一段時間的影響,所有業(yè)務(wù)被中斷,影響時間取決于仲裁時間和兩站點間距離。而且還需要忍受站點間線路的時延和抖動的可能造成的影響,站點間距離越大,這種影響會被不斷放大,影響讀寫性能,甚至造成線路中斷。這種情況下反而不如用SVC Local VDM SVC PPRC架構(gòu),從分保護(hù)了本地資源,排除了可能的不可抗拒的影響,而且如果采用了SVC Local VDM SVC PPRC架構(gòu),雖然存儲架構(gòu)層作為ACTIVE-STANDBY方式,但仍舊可以配合軟件層實現(xiàn)雙活數(shù)據(jù)中心建設(shè);另外SVC HyperSWAP架構(gòu)看似很高級,無論從雙站點的讀寫性能優(yōu)化、單一站點失效后的全面保護(hù)能力方面還是雙活架構(gòu)后的高可用方面均優(yōu)于Stretched Cluster,但卻無法繼續(xù)進(jìn)行兩地三中心擴(kuò)展,實施復(fù)雜性也更高,運維成本也提高,而且總的VDISK數(shù)量較少等等;SVC Local VDM SVC PPRC充分保護(hù)了本地,但是災(zāi)備的實施卻又局限于AIX系統(tǒng)下的HACMP,6.1之前的AIX版本和linux、windows系統(tǒng)均無法實現(xiàn)跨站點高可用,只能從數(shù)據(jù)層同步,并利用軟件層的方式實現(xiàn)高可用和雙活。而且SVC Local VDM SVC PPRC的一套SVC集群下的兩個IO Group間無法自動切換,這點SVC Stretched Cluster也是如此,也就是說如果SVC Stretched Cluster配置為2個I/O Group,I/O Group間是無法實現(xiàn)自動切換的,需要人為手動切換;SVC Stretched Cluster實現(xiàn)了ACTIVE-ACTIVE,又可以擴(kuò)展兩地三中心,但是讀寫性能優(yōu)化方面做得又不如SVC HyperSWAP,而且本地冗余度做得也不大好,本地一個SVC節(jié)點故障,本地就沒有冗余保護(hù),只能利用災(zāi)備站點的SVC節(jié)點,這點在SVC Local VDM SVC PPRC和SVC HyperSWAP都得到了冗余度提升;另外還有一點共同點得我們關(guān)注,我們知道SVC Stretched Cluster、SVC Local VDM SVC PPRC和SVC HyperSWAP均使用了同步復(fù)制技術(shù),但有沒有想過如果真的因為站點間距離長,時延比較大,導(dǎo)致兩個SVC節(jié)點同步緩慢,以致最后影響雙數(shù)據(jù)中心整個業(yè)務(wù)系統(tǒng)的寫I/O緩慢。SVC還考慮到了這一點的,在SVC節(jié)點同步的參數(shù)中有mirrowritepriority屬性,可以設(shè)置為latency,當(dāng)同步響應(yīng)時間大于5秒時,放棄同步,保證主站點/主存儲的寫I/O性能。基于此,三種方案針對不同的企業(yè)需求,不能說哪種方案通吃,也不能說哪種方案一定不行,都有使用優(yōu)勢和劣勢。


【問題1】
**SVC存儲網(wǎng)關(guān)與友商類似產(chǎn)品的對比優(yōu)劣勢是什么?
**【問題解答】


【問題2】
針對有些廠商的存儲陣列自身帶有雙活 復(fù)制的功能,SVC的ESC的優(yōu)勢如何體現(xiàn)?現(xiàn)在有廠商存儲陣列自帶雙活 復(fù)制功能,例如:A中心和B中心之間雙活,B中心存儲和C中心存儲做復(fù)制,完全通過存儲陣列自身實現(xiàn)。目前,IBM DS8000和SVC ESC 復(fù)制能夠?qū)崿F(xiàn)。但是ESC的IO GROUP中單節(jié)點故障嚴(yán)重影響性能,如何應(yīng)對?
【問題解答】1.自帶雙活功能的存儲算是少數(shù),如DS8000 HYPERSWAP,即使有,也需要LICENSE,有的MM也要LICENSE,GM也要LICENSE,中低端存儲就沒辦法了,像SVC這樣把高中低端存儲均融合后,用SVC ESC和SVC HYPERSWAP都實現(xiàn)了雙活或者雙活 異地。
2.SVC ESC的IO GROUP單節(jié)點故障,將引發(fā)節(jié)點切換,站點的主機將會訪問另一站點的SVC節(jié)點,只是造成了短暫時間的訪問中斷而已,另一站點SVC節(jié)點接管后,性能不會出現(xiàn)明顯的下降。這種方式并沒有不妥,只是本地站點只有1個SVC節(jié)點,冗余性來說,有點不夠。另外,SVC ESC的IO GROUP單節(jié)點故障后,由于一個IO GROUP是同一套緩存,會造成寫緩存DISABLE,這樣對于中低端存儲來說,可能會出現(xiàn)性能些許下降,但不明顯和致命。
3.對于SVC hyperswap的IO GROUP單節(jié)點故障,則好了許多,兩站點都有雙節(jié)點保護(hù),站點與站點間的寫緩存均獨立,而且還有讀寫性能優(yōu)化方式,如連續(xù)10分鐘讀寫I/O占比75%以上則改變主從VDISK方式等。
【問題3】
SVC存儲網(wǎng)關(guān)雙活形式與控制器雙活(HDS\NETAPP\華為)間有何優(yōu)劣
【問題解答】單單從雙活形式來說,一個IO GROUP的兩個SVC節(jié)點的雙活和存儲控制器雙活實現(xiàn)原理都是類似的,都是兩個節(jié)點間的緩存同步和鎖排斥機制實現(xiàn)的,但是SVC先進(jìn)的地方是兩個節(jié)點可以拉伸至兩個站點,存儲控制器兩個節(jié)點是實現(xiàn)不了的。


三、雙活數(shù)據(jù)中心間鏈路與帶寬方面

【議題1】雙活數(shù)據(jù)中心建設(shè)過程中,最大的難點是雙中心間鏈路帶寬,時延和抖動,各位有什么深入的見解?如何更充分地考慮,需要注意的點有哪些?應(yīng)如何盡量避免該問題,高可用的鏈路該如何設(shè)計?各位專家對此有何深入見解?
【觀點一】鏈路帶寬,時延,抖動,這是由運營商線路質(zhì)量設(shè)備決定的,用戶對這塊只能加大監(jiān)控,束手無策,沒法改變
【觀點二】建議兩個數(shù)據(jù)中心距離不要超過100km,同時采用至少兩條以上的不同運營商線路
【觀點三】考慮到運營商的光纜質(zhì)量問題,使用雙運營商的鏈路,且距離不宜超過60KM
【觀點四】鏈路的抖動 我深有體會 !
在一個客戶現(xiàn)場 ~兩個雙活數(shù)據(jù)中心~夸中心做的hacmp.~需要同時訪問兩個中心的存儲 ~中間運營商的鏈路有比較大的衰減 ——12到14吧 好像!這種衰減 都tcpip這種傳輸 沒有什么影響 但是對 光纖的傳輸就 影像大了~主機訪問存儲時好時壞!Vg被鎖 影像業(yè)務(wù)!
所以 我覺得在硬件層面做災(zāi)備雙活 不是很可靠 尤其是光纖的!
還是做數(shù)據(jù)庫那種dataguard好像更靠譜
【觀點五】dataguard據(jù)我所知是數(shù)據(jù)庫事物日志的復(fù)制技術(shù),如果采用同步的方式,TCPIP效率較低,跨中心同步復(fù)制可能會影響性能,而且數(shù)據(jù)庫日志復(fù)制技術(shù)并不能覆蓋數(shù)據(jù)庫的全部操作,像XML和LOB格式的字段數(shù)據(jù)的增刪改操作,是不會記日志的,有些應(yīng)用為了效率的提升,采用了不記數(shù)據(jù)庫日志的方式。但是數(shù)據(jù)庫日志復(fù)制技術(shù)可以從事物層面保證數(shù)據(jù)庫一致性,而通過存儲鏈路作為數(shù)據(jù)傳輸通道的存儲復(fù)制技術(shù)是從存儲BLOCK層保證數(shù)據(jù)一致性的,差距可想而知。
【觀點六】1、取決于運營商,應(yīng)該選不同的兩家運營商。
2、距離不宜過遠(yuǎn)。(50km以內(nèi)比較好)
3、分業(yè)務(wù),不是特別重要的 ,做主備即可,特別重要的可以考慮雙活。
【觀點七】從大家描述中,基本都是選擇了不同的兩家運營商,距離姑且不談,畢竟仁者見仁,智者見智,但是兩家運營商的裸光纖基本都在同一弱電井中,即使兩家都采用了各自裸光纖的冗余,但是當(dāng)前丟地鐵啊,修路啊,改造啊,建設(shè)啊非常常見,兩家運營商的裸光纖同時斷,或者幾條衰減很大,幾條又?jǐn)嗔说那闆r屢見不鮮,而在雙活建設(shè)當(dāng)中,中間鏈路是重中之重。
【觀點八】鏈路問題不可預(yù)估,也很難改善,做好監(jiān)控,想辦法降低RPO,這樣雙活才有意義
【議題2】如何實時監(jiān)控雙活數(shù)據(jù)中心鏈路狀況,避免因鏈路突發(fā)性故障或者性能衰減導(dǎo)致重大故障,如何應(yīng)急?
如果采用了雙活數(shù)據(jù)中心架構(gòu),該采用哪種技術(shù)或者軟件監(jiān)控雙數(shù)據(jù)中心鏈路狀況?遇到突發(fā)狀況,該采取哪些措施應(yīng)急處置?
【觀點1】監(jiān)控鏈路本身還不如去監(jiān)控業(yè)務(wù)本身,比如交易響應(yīng)時間,峰值等,出現(xiàn)交易堵塞失敗,畢竟一切都是為了業(yè)務(wù)應(yīng)用服務(wù)的,必要的應(yīng)急預(yù)案應(yīng)該是在是建設(shè)雙活數(shù)據(jù)中心上線前,需要做的大量的場景測試,編寫應(yīng)急手冊。遇到類似的問題,根據(jù)業(yè)務(wù)和技術(shù)評估,采取如何的應(yīng)急方案.
【觀點2】鏈路監(jiān)控是必須的,但是鏈路監(jiān)控一般運營商決定的,我們在我們的出口上可以監(jiān)控到帶寬情況,這樣來推理,可以看出帶寬是否滿足需求,是否有抖動。
【觀點3】鏈路監(jiān)控一般是運營商去做的,客戶自己可能做不到,但客戶自己的應(yīng)用運行狀況,存儲運行狀況可以監(jiān)控到的


【問題1】
雙活數(shù)據(jù)中心建設(shè)過程中,雙中心間鏈路帶寬的選擇,鏈路采用的形式等方面,從用戶的角度那些更好一些?
比如采用那種方式,多少帶寬可以基本滿足雙活中心的要求?
鏈路采用的形式,是采用用戶全部租用運營商的鏈路 傳輸設(shè)備?還是只租用運營商的鏈路,而雙中心的傳輸設(shè)備按用戶要求來實現(xiàn)配置等?希望各位專家和同仁共同探討,給一些建議。
【問題解答一】個人意見
1.雙活數(shù)據(jù)中心”所需網(wǎng)絡(luò)的最低帶寬取決于兩個方面,一是存儲SAN網(wǎng)絡(luò),二是IP網(wǎng)絡(luò)。SAN網(wǎng)絡(luò)帶寬取決于本地存儲 同城存儲寫入I/O吞吐量,這個吞吐量在建設(shè)雙活數(shù)據(jù)中心時,會同步寫至另一站點,這個可以在本地和同城進(jìn)行監(jiān)控和評估;IP網(wǎng)絡(luò)帶寬取決于你雙活的形式,如果是數(shù)據(jù)庫雙活,就需要評估和監(jiān)控跨站點兩個數(shù)據(jù)庫間數(shù)據(jù)傳輸?shù)木W(wǎng)絡(luò)吞吐,如果是應(yīng)用雙活,就需評估跨站點間兩個應(yīng)用間數(shù)據(jù)共享的網(wǎng)絡(luò)吞吐,還應(yīng)該考慮應(yīng)用是就近站點讀寫本地數(shù)據(jù)庫,還是跨站點讀寫,還有應(yīng)用間交互是就近站點讀寫,還是跨站點交互讀寫,根據(jù)雙活數(shù)據(jù)中心“雙活”的等級進(jìn)行提前規(guī)劃、監(jiān)控和整體評估,這是個浩大的工程。
2.鏈路采用的形式一般是只租用運營商的鏈路,雙中心的傳輸設(shè)備自己購買和配置,這樣更靈活又控制成本。
【問題解答二】這個問題我覺得還是主要看雙活中心存儲和應(yīng)用的需要了,存儲雙活,存儲之間同步鏈路需求最低帶寬多少,應(yīng)用如果是oracle rtt 時間是多少,而且中間鏈路延遲等等,得綜合考慮
【問題解答三】第一,雙活中心建立起來,基礎(chǔ)數(shù)據(jù)同步完成
第二、計算所有業(yè)務(wù)每天的數(shù)據(jù)量有多大。
第三、測試運營商帶寬速度和穩(wěn)定性
第四、計算比如千兆網(wǎng)絡(luò)把 ,一秒最多100m出頭,總數(shù)據(jù)量去除就得出你的帶寬,然后要考慮抖動,延遲,和高峰期,適量的加點富裕即可
保證以上4點,我認(rèn)為比較合理,不是拍腦袋上。
【問題2】
SVC雙活時FC交換機中間鏈路問題
有實施過程中關(guān)于生產(chǎn)中心與災(zāi)備中心間鏈路,是否有最佳實踐。
FC交換機間鏈路最多支持幾條?
自建光纜需注意哪些問題?
【問題解答】1.鏈路最佳實踐,目前沒有,我已列議題,希望各位專家提出自己的見解:雙活數(shù)據(jù)中心建設(shè)過程中,最大的難點是雙中心間鏈路帶寬,時延和抖動,各位有什么深入的見解?
2.FC交換機之間的級聯(lián)線建議是2條,做綁定,并且提升帶寬。
3.一般是租用用運營商的光纜,多家運營商互備,自建的也太有錢了吧。


四、虛擬化云時代,是采用分布式還是集中式管理方面

【議題1】虛擬化云時代,民主還是集權(quán),如何在集權(quán)過程中,進(jìn)一步加強穩(wěn)定性和高可用?在虛擬化云時代,集中化、虛擬化、資源池和彈性動態(tài)伸縮等都成為其代名詞,但是我們感覺到業(yè)務(wù)系統(tǒng)越來越集中,使用的資源全部來自虛擬化過后的資源。如存儲通過SVC虛擬化,單臺物理機資源集中化,GPFS文件系統(tǒng)NSD格式化等等,越來越多的雞蛋都集中在一個籃子里了,各位專家對此有何看法和觀點,歡迎共同探討!
【觀點一】建議一般對資源池進(jìn)行集中管理比較穩(wěn)妥,業(yè)務(wù)系統(tǒng)需要直接申請資源就可以了,而且集中管理,,統(tǒng)一監(jiān)控,同時對設(shè)備的生命周期,運行狀況都能實時觀察到!
【觀點二】我覺得不能拍腦袋上,具體還得看業(yè)務(wù)類型,有得業(yè)務(wù)不適合集中,該分散就分散,不然中心壓力過大,但是總路線肯定是重視中心,弱化分支
【觀點三】集中便于管理,但帶來故障影響的風(fēng)險會增高,根據(jù)業(yè)務(wù)來找到平衡點,另外開始就需要考慮高可用的問題,否則后期會有巨大隱患
【觀點四】這里的集中或分散主要是從物理設(shè)備的使用角度來考慮的,集中會帶來管理方便和效率的提高,分散看起來分散了物理設(shè)備故障帶來的風(fēng)險。但我認(rèn)為并不盡然,我們的非功能性業(yè)務(wù)目標(biāo)一般有提高效率目標(biāo)和實現(xiàn)客戶需求的可用性目標(biāo)兩方面。集中虛擬化毋庸置疑能夠提高效率,而良好的可用性管理也可以實現(xiàn)在集中虛擬化環(huán)境下的業(yè)務(wù)可用性目標(biāo),例如業(yè)務(wù)系統(tǒng)的可用性架構(gòu)、物理設(shè)備的配置使用策略、恢復(fù)管理等等都影響著是否能達(dá)到客戶需求目標(biāo)。同時,集中虛擬化后,我們可以用更經(jīng)濟(jì)更有效的手段來協(xié)助可用性管理。因此,我認(rèn)為我們需要從業(yè)務(wù)目標(biāo)出發(fā),通過可用性管理來實現(xiàn)可用性目標(biāo),物理設(shè)備集中化只是其中的一個因素,需要考慮但并非一個硬的限制。
【觀點五】民主還是集權(quán),永恒的話題。雞蛋到底是放在一個籃子里?還是多放幾個籃子?真的很難選擇,但是在虛擬化云時代,集中化、虛擬化、資源池和彈性動態(tài)伸縮等都成為其代名詞。但是我們也有擔(dān)憂,也有憂慮,比如說SVC虛擬化,之前主機訪問各自存儲,分門別類,部分主機訪問高端存儲,部分主機訪問中端存儲,部分主機訪問低端存儲,SVC虛擬化上了之后,所有異構(gòu)、高中低端存儲均掛在至SVC,被SVC管理,再通過SVC虛擬化成VDISK,映射給所有主機使用,雞蛋基本全在一個籃子里了,SVC集權(quán)后,核心地位無可比擬。而且在私有云建設(shè)當(dāng)中,存儲掛載至SVC并不是通過IMAGE模式(透穿模式),而是manage模式,說白了這種模式下存儲全是SVC的LUN資源,SVC再在這些LUN資源上再虛擬化一層,再映射給主機使用,在這種模式下,主機只能識別SVC的vdisk,存儲的上的卷已經(jīng)完全無法單獨供主機使用,這也是一種集權(quán),地位又提升一大截,風(fēng)險提升了。再比如說資源池,之前主機分散至不同的物理機中,為了動態(tài)彈性伸縮擴(kuò)展,為了快速部署,快速迭代等,一臺物理機資源容量越來越大,放置多個主機在一臺物理機中,主機不再擁有自己的I/O卡,主機不再擁有自己的硬盤,所有的網(wǎng)絡(luò)訪問和I/O訪問均需要通過虛擬I/O主機進(jìn)行,主機擁有的只不過是其他主機虛擬化之后的產(chǎn)物,這臺物理機也是一種集權(quán),地位也提升了,風(fēng)險也提升了;再比如說GPFS共享文件系統(tǒng),利用該軟件搭建應(yīng)用系統(tǒng),可以在應(yīng)用端實現(xiàn)應(yīng)用讀寫雙活。但是GPFS軟件將主機識別的盤格式化了,成了GPFS本身擁有的NSD格式盤,不屬于該GPFS集群架構(gòu)的主機,是無法識別NSD格式盤的,該數(shù)據(jù)盤脫離GPFS軟件、脫離GPFS集群架構(gòu)的主機也無法單獨使用,這也是一種集權(quán)。
以上種種情況說明,我們的企業(yè)在構(gòu)建雙活數(shù)據(jù)中心、私有云平臺的過程中,是不斷集權(quán)過程,不斷提升了便利性、靈活性和高可用性同時,也提升了集權(quán)者的地位,加劇了風(fēng)險。為了防范風(fēng)險,SVC版本不斷更新,增加新的功能,新的理念,新的架構(gòu),漸漸的有了SVC Local VDM來防范存儲單點風(fēng)險,有了SVC Stretched Cluster來防范站點風(fēng)險,有了SVC HyperSWAP來防范站點單SVC節(jié)點風(fēng)險,同時締造了基于存儲虛擬化方案的SVC雙活架構(gòu)方案;為了防范主機過于集中的風(fēng)險,我們不斷利用軟件層的雙活方案和可靠性方案,如WAS集群、TSA GPFS、HACMP、DB2 HADR TSA等等,主機端利用動態(tài)遷移、vmotion等技術(shù)共同來緩解主機的集中風(fēng)險壓力,并不斷提高資源池高可用,不斷提高資源池網(wǎng)絡(luò)及存儲I/O性能等;為了防范GPFS的風(fēng)險,我們將GPFS NSD數(shù)據(jù)盤通過SVC PPRC復(fù)制至災(zāi)備,并在災(zāi)備端新增了GPFS集群主機,加固該架構(gòu)的冗余性和可靠性,減輕了GPFS NSD格式化后的風(fēng)險壓力。
可以預(yù)見的是,隨著資源池不斷云化,主機不斷集中化,虛擬化技術(shù)不斷疊加,技術(shù)不斷更新,我們的高可用理念和雙活架構(gòu)不斷更新,集中還是民主這個話題會被漸漸遺忘,在集中化中民主,在民主化中集中。


五、SVC同城容災(zāi)與異地容災(zāi)方面

【問題1】
【疑問一】雙活數(shù)據(jù)中心 災(zāi)備模式的方案有哪些可以落地的?
假如客戶沒有異構(gòu)存儲需求的前提下,需要在同城建設(shè)基于存儲的雙活以及在異地還要做遠(yuǎn)程存儲復(fù)制,IBM 除了DS8000(成本較高)以外,還有可選方案嗎?
【問題解答一】如果沒有異構(gòu)存儲,可以通過存儲自身的鏡像軟件來實現(xiàn),也可以通過系統(tǒng)的lvm方式來實現(xiàn),或者如果客戶采用了gpfs那就更好了
【疑問二】相關(guān)廠商存儲本身就能實現(xiàn),無需GPFS之類的;而且只是要求存儲實現(xiàn),不要求通過數(shù)據(jù)庫實現(xiàn),好像IBM的方案不多吧。沒有虛擬化的要求,為何提供SVC或VPLEX呀?
【問題解答二】高端存儲DS8000系列 hyperswap GM實現(xiàn)要求,排除DS800系列的話,可以結(jié)合存儲數(shù)據(jù)級容災(zāi)和軟件層應(yīng)用雙活來實現(xiàn)你的要求,如MM GM實現(xiàn)數(shù)據(jù)級同城容災(zāi)和異地災(zāi)備,應(yīng)用雙活可以用應(yīng)用負(fù)載 GPFS或者應(yīng)用負(fù)載 WAS集群等實現(xiàn),數(shù)據(jù)庫雙活可以用GPFS ORACLE RAC或者DB2 PURESCALE GPFS等,數(shù)據(jù)庫異地可以用DB2 HADR或者ORACLE DG
【問題解答三】除去軟件層的解決方案、存儲虛擬化的解決方案,這種存儲的雙活 異地只能是高端存儲了,IBM不就是DS8000系列高端嗎,那么只能是通過DS8000 HYPERSWAP實現(xiàn)同城雙活,但是既然是用了HYPERSWAP,就無法用存儲實現(xiàn)容災(zāi)了,只能又配合軟件層的方案實現(xiàn)異地了。其他存儲廠商高端系列估計也有方案,接觸不多。
【問題2】
【疑問】災(zāi)備系統(tǒng)建設(shè)在滿足監(jiān)管要求的RTO、TPO外,有哪幾種建設(shè)方式的初期成本投入最少?
【問題解答】這個問題比較泛,要看你現(xiàn)有的架構(gòu)和設(shè)備情況,還要考慮你的可靠性、性能、擴(kuò)展等要求。
最小投入的話,那么只能實現(xiàn)數(shù)據(jù)級災(zāi)備。
1.用備份的方式可能會最少投入,如將生產(chǎn)數(shù)據(jù)庫、操作系統(tǒng)、文件通過備份至存儲中,然后用異步的方式傳輸至災(zāi)備中心,比如說NAS與NAS間IP異步傳輸?shù)姆绞?。這個可以是初步的方式。但是RPO和RTO可能是達(dá)不到要求的,因為要采用備份恢復(fù)的方式,數(shù)據(jù)必然存在丟失,恢復(fù)時間也有點長。
2.要么是用存儲的異步復(fù)制方式(需要看存儲型號,還有LICENSE等)
3.要么就上SVC,將本地的異構(gòu)存儲整合,再利用本地SVC與災(zāi)備的V5000/V7000/SVC采用異步復(fù)制的方式
4.上SVC與SVC間的PPRC實時同步方式,實現(xiàn)所有異構(gòu)存儲的數(shù)據(jù)級同步方式。
5.假定只實現(xiàn)數(shù)據(jù)庫級災(zāi)備,在災(zāi)備買個存儲和主機,如ORACLE可以用ORACLE DG,DB2可以用HADR等實現(xiàn)。
個人建議和想法,供參考。
【問題3】
【疑問】如何利用svc進(jìn)行異地容災(zāi)建設(shè)?
目前,數(shù)據(jù)中心內(nèi)包括EMC、DELL、IBM等廠家存儲,用于不同的生產(chǎn)系統(tǒng),每套生產(chǎn)系統(tǒng)都是獨立的SAN架構(gòu)網(wǎng)絡(luò)。如果采用SVC進(jìn)行異地容災(zāi)建設(shè),對于數(shù)據(jù)中心現(xiàn)有系統(tǒng)架構(gòu)豈不是改動很大,并且系統(tǒng)還需要停機時間對吧。對于這種情況,方案應(yīng)該怎樣設(shè)計才能使得數(shù)據(jù)中心內(nèi)現(xiàn)有架構(gòu)改動最小,除了利用svc還有其他解決辦法嗎?
【問題解答】1.用SVC等存儲虛擬化方案是改動最小的方案,用其他方案更復(fù)雜,要么用存儲的異地復(fù)制功能(可能還需要買專門的LICENSE),要么用CDP先進(jìn)行架構(gòu)改造,再用本地和異地兩套CDP的異地復(fù)制功能實現(xiàn),有的存儲型號可能還不能都實現(xiàn)異地災(zāi)備。
2.用SVC等存儲虛擬化方案對以后架構(gòu)的提升最明顯的方案,對你企業(yè)架構(gòu)云化轉(zhuǎn)型最便捷的方案,新購兩臺SAN交換機,再利用SVC整合全部的異構(gòu)存儲,利用兩地的SVC與SVC進(jìn)行異步復(fù)制,或者用本地的SVC與異地的V7000等進(jìn)行異步復(fù)制,均能實現(xiàn)異地災(zāi)備。
3.無論你采用哪種方案,停機肯定是要的,用SVC改造的方式你可以理解為:
改造前為:各異構(gòu)存儲---->HOST
改造后為:各異構(gòu)存儲---->SVC---->HOST,中間只不過是加了一道SVC而已,改造后你之前所有的不同SAN網(wǎng)絡(luò)也進(jìn)行了統(tǒng)一整合,整個架構(gòu)清晰明了。
【問題4】
【疑問】云技術(shù)和云服務(wù)越來越普遍,災(zāi)備如何結(jié)合云及傳統(tǒng)的方式進(jìn)行實施,既保證安全便捷又節(jié)省初期費用投入?
【問題解答】云架構(gòu)下無非這么幾種:
云資源:
1.軟件定義網(wǎng)絡(luò):目前來說,有點困難,難以落地,看今后技術(shù)進(jìn)步。
2.軟件定義計算節(jié)點:POWERVM,VMWARE,KVM。
3.軟件定義存儲:SVC和VPLEX為代表。
4.軟件定義存儲 計算節(jié)點:超融合架構(gòu)。
云管理:
POWERVC,ICM,ICO,VCENTER,統(tǒng)一監(jiān)控,統(tǒng)一備份,統(tǒng)一流管,自動化投產(chǎn)等
災(zāi)備要落地云,可參考上面的技術(shù)實施。


六、私有云建設(shè)與雙活建設(shè)架構(gòu)、案例方面

【議題1】雙活數(shù)據(jù)中心復(fù)雜性也大大提升,有無必要?難點在哪?復(fù)雜性在哪?適用哪些企業(yè)?
雙活數(shù)據(jù)中心進(jìn)一步提升了業(yè)務(wù)系統(tǒng)的RPO和RTO,提升了雙中心資源利用率,但相應(yīng)地系統(tǒng)復(fù)雜性也大大提升,有無必要?難點在哪?復(fù)雜性在哪?適用哪些企業(yè)?
【觀點1】雙活的難點 不是有一個廠商的技術(shù)產(chǎn)品就能完成的,往往需要太多技術(shù)的協(xié)同配合完成,這就會造成了技術(shù)兼容性成熟度的考驗。既然不是一個技術(shù),那就會增加管理和運維的難度,對于一些IT技術(shù)力量的不足的企業(yè),遇到問題,往往會很棘手,畢竟雙活的數(shù)據(jù)中心本身,需要業(yè)務(wù),IT,多部門聯(lián)合才能更好地完成的,如何問題如何應(yīng)急,在完美的雙活都很難盡善盡美,最終還是要靠人去處理那些技術(shù)本身無法處理的問題。
【觀點2】數(shù)據(jù)大集成項目(包含物理鏈路,硬件,系統(tǒng),存儲,甚至軟件),難度很高。
1、重點是網(wǎng)絡(luò)架構(gòu)設(shè)計,也是難點,因為網(wǎng)絡(luò)的架構(gòu)設(shè)計合理,可以減少延遲,抖動等。
2、很有必要
3、大企業(yè)都有這個需求吧,只是看投入大小,金融行業(yè),國慶扛得住,民企就選擇性了,比如重要業(yè)務(wù)可以做,非重要業(yè)務(wù)備份即可。
現(xiàn)在還一個好處就是公有云可以減少一定的成本,形成雙中心或者多中心。
【議題2】雙活數(shù)據(jù)中心資源池中包括各類異構(gòu)的存儲、各類異構(gòu)的X86服務(wù)器,各類異構(gòu)的Power服務(wù)器,資源池,不同的虛擬化實現(xiàn)技術(shù),那么如何分門別類統(tǒng)一進(jìn)行資源池管理,跨中心的資源池又該如何統(tǒng)一管理呢,希望各專家提出自己的獨特見解!
【觀點1】目前來說采用最多的還是虛擬化技術(shù),存儲通過svc或者emc vplex實現(xiàn),主機一般采用vmvare或者powervm來實現(xiàn)
【觀點2】vmware做類是項目比較多
近兩年流行的超融合技術(shù)也可以。


【問題1】
【疑問一】能給出幾個雙活數(shù)據(jù)中心 部署架構(gòu)圖嗎?
【問題解答】給幾個應(yīng)用雙活的吧
統(tǒng)一私有云平臺:

MQ災(zāi)備 JAVA應(yīng)用雙活:

JAVA應(yīng)用雙活:

WAS應(yīng)用雙活:

【疑問二】看得出來,都離不開負(fù)載均衡,這些負(fù)載均衡是按什么分類的呢?
【問題解答】對,應(yīng)用雙活,負(fù)載均衡少不了的,按網(wǎng)絡(luò)安全分區(qū)分類的
【問題2】
【疑問】
雙活可以有應(yīng)用級雙活和數(shù)據(jù)庫級雙活,目前有沒有數(shù)據(jù)庫級雙活的銀行應(yīng)用案例?對于兩地三中心的建設(shè)環(huán)境下,如何進(jìn)行雙活建設(shè)呢?
【問題解答】1.據(jù)我所知,數(shù)據(jù)庫雙活還是有案例的
如前幾年的山東移動的GPFS ORACLE RAC雙活
還有民生銀行和交行的DB2 PURESCALE GPFS雙活
2.如果是兩地三中心的話,基于SVC的的方案,HYPRE SWAP是不能用的,只能用SVC Stretch Cluster實現(xiàn)同城存儲層的雙活,再加SVC GM實現(xiàn)異地災(zāi)備,或者用SVC LOCAL VDM SVC PPRC SVC GM實現(xiàn)本地雙存儲高可用 同城災(zāi)備數(shù)據(jù)級災(zāi)備 異地災(zāi)備,同城應(yīng)用雙活只能用軟件層的雙活架構(gòu),如應(yīng)用負(fù)載 GPFS跨中心雙活,應(yīng)用負(fù)載 跨中心WAS集群等等,數(shù)據(jù)庫的話DB2 PURESCALE很不錯。

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多