云的基本特征是動態(tài)、彈性、靈活,按需計算,傳統(tǒng)的網(wǎng)絡(luò)架構(gòu)與技術(shù)雖然也能構(gòu)筑云計算的基礎(chǔ)平臺,但是因此而形成的傳統(tǒng)運行架構(gòu)卻無法支撐如此動態(tài)化的IT業(yè)務要求。它必然要求一種新的IT運行模式,將大量的計算資源以動態(tài)、按需的服務方式供應和部署。
一、 云計算的基礎(chǔ)架構(gòu)挑戰(zhàn)
傳統(tǒng)業(yè)務結(jié)構(gòu)下,由于多種技術(shù)之間的孤立性(LAN與SAN),使得數(shù)據(jù)中心服務器總是提供多個對外IO接口:用于數(shù)據(jù)計算與交互的LAN接口以及數(shù)據(jù)訪問的存儲接口,某些特殊環(huán)境如特定HPC(高性能計算)環(huán)境下的超低時延接口。服務器的多個IO接口導致了數(shù)據(jù)中心環(huán)境下多個獨立運行的網(wǎng)絡(luò)同時存在,不僅使得數(shù)據(jù)中心布線復雜,不同的網(wǎng)絡(luò)、接口形體造成的異構(gòu)還直接增加了額外人員的運行維護、培訓管理等高昂成本投入,特別是存儲網(wǎng)絡(luò)的低兼容性特點,使得數(shù)據(jù)中心的業(yè)務擴展往往存在約束。
由于傳統(tǒng)應用對IT資源的獨占性(如單個應用獨占服務器),使得數(shù)據(jù)中心的業(yè)務密度低,造成有限的物理空間難以滿足業(yè)務快速發(fā)展要求,而已有的系統(tǒng)則資源利用效率低下。而且,傳統(tǒng)業(yè)務模式下,由于規(guī)模小,業(yè)務遵循按需規(guī)劃,企業(yè)應用部署過程復雜、周期漫長,難以滿足靈活的IT運行要求。在云計算這種變革性運營與服務模式下,必須能夠解決成本、彈性、按需增長的業(yè)務要求,并改進與優(yōu)化IT運行架構(gòu)。因此:
云計算服務必然要求一種大規(guī)模的IT運行方式,在極大程度上降低云計算基礎(chǔ)設(shè)施的單位建設(shè)成本,大幅降低運行維護的單位投入成本。通過網(wǎng)絡(luò)與IO的整合來消除數(shù)據(jù)中心的異構(gòu)網(wǎng)絡(luò)與接口環(huán)境,云計算中心需要優(yōu)化、簡化的布線與網(wǎng)絡(luò)環(huán)境。
由于其業(yè)務集中度、服務的客戶數(shù)量遠超過傳統(tǒng)的企業(yè)數(shù)據(jù)中心,導致了高帶寬的業(yè)務流,如圖1所示的亞馬遜對外公布其2008年提供云計算服務后,云服務的帶寬增長速度遠高于其WEB服務的帶寬增長。
圖1 亞馬遜的云計算服務高速帶寬增長需求
總的來說,為滿足云計算的業(yè)務要求,統(tǒng)一的基礎(chǔ)網(wǎng)絡(luò)要素必然包括:超高速交換、統(tǒng)一交換、虛擬化交換、透明化交換。
二、 云的統(tǒng)一基礎(chǔ)網(wǎng)絡(luò)
1. 云計算的超高速網(wǎng)絡(luò)
以太網(wǎng)技術(shù)迅速發(fā)展,10GE技術(shù)當前已經(jīng)在數(shù)據(jù)中心的骨干廣泛應用,圖2顯示了2010年的以太網(wǎng)技術(shù)40G/100G標準發(fā)布,表明基礎(chǔ)網(wǎng)絡(luò)將快速進入超高速時代。
圖2 以太網(wǎng)的帶寬提升
同樣,服務器IO也由千兆向萬兆快速發(fā)展,隨著IO加速技術(shù)、IO虛擬化技術(shù)的不斷提升以及服務器多路多核計算能力的提升,當前的服務器IO已經(jīng)具備接近10GE線速的吞吐能力,這種來自網(wǎng)絡(luò)接入層的高性能吞吐必然驅(qū)動云計算網(wǎng)絡(luò)架構(gòu)采用更高的性能,以滿足能力的匹配(如圖3所示)。
圖3 數(shù)據(jù)中心網(wǎng)絡(luò)的高帶寬發(fā)展
2. 云計算的統(tǒng)一交換網(wǎng)絡(luò)
以太網(wǎng)原本是以簡單、高效為特質(zhì)的常規(guī)技術(shù),適用于常規(guī)網(wǎng)絡(luò)通信的支撐,依賴于上層協(xié)議解決網(wǎng)絡(luò)擁塞、丟包問題。隨著以太網(wǎng)技術(shù)的不斷演進與提升,無損以太網(wǎng)技術(shù)(Lossless Ethernet)標準族開始確立。
這一標準族稱為數(shù)據(jù)中心以太網(wǎng)DCE或融合增強以太網(wǎng)CEE,包括基于優(yōu)先級的流控(Priority-based flow control PFC; IEEE 802.1Qbb) 、增強傳輸選擇技術(shù)(Enhanced transmission selection ETS; IEEE 802.1Qaz) 、擁塞通告(Congestion notification IEEE 802.1Qau) 、鏈路發(fā)現(xiàn)協(xié)議LLDP (IEEE 802.1AB)的擴展數(shù)據(jù)中心橋能力交換協(xié)議(Data Center Bridging Capability Exchange Protocol DCBX)。以當前已經(jīng)完全實現(xiàn)的PFC+DCBX組合為例,如圖4所示,在交換機端口的8個隊列進行buffer的分配,形成了網(wǎng)絡(luò)中8個虛擬化通道,數(shù)據(jù)流帶上自身的通道標簽(802.1q進行標識),buffer大小使得各隊列有不同的數(shù)據(jù)緩存能力,由DCBX協(xié)議交換不同網(wǎng)絡(luò)單元的基本能力信息,以確定數(shù)據(jù)的突發(fā)能力。
圖4 無丟包以太網(wǎng)
一旦出現(xiàn)瞬時擁塞,即某個設(shè)備的隊列緩存消耗較快,超過一定閾值(可設(shè)定為端口隊列的1/2、3/4等比例),設(shè)備即向數(shù)據(jù)進入的方向(上游設(shè)備)發(fā)送反壓信息,上游設(shè)備接收到反壓信息,會根據(jù)反壓信息指示停止發(fā)送或延遲發(fā)送數(shù)據(jù),并將數(shù)據(jù)存儲在本地端口buffer,如果本地端口buffer消耗超過閾值,則繼續(xù)向上游反壓,如此一級級反壓,直到網(wǎng)絡(luò)終端設(shè)備,從而消除網(wǎng)絡(luò)節(jié)點因擁塞造成的丟包。
無損以太網(wǎng)的特性,可以完全滿足存儲業(yè)務對于丟包的敏感性,因此,F(xiàn)C存儲數(shù)據(jù)承載在以太網(wǎng)上(FCoE),基于DCE技術(shù)的支持,新一代以太網(wǎng)技術(shù)完全可以融合數(shù)據(jù)中心的存儲網(wǎng)絡(luò)形成全業(yè)務的統(tǒng)一交換。在這樣的技術(shù)支撐下,數(shù)據(jù)中心網(wǎng)絡(luò)將實現(xiàn)合并,使得原本多種異構(gòu)的網(wǎng)絡(luò)形態(tài)合并到一套網(wǎng)絡(luò),從而也實現(xiàn)了多個網(wǎng)絡(luò)管理合并、簡化成為一個管理視圖(如圖5所示)。
圖5 數(shù)據(jù)中心統(tǒng)一交換網(wǎng)絡(luò)
以太網(wǎng)帶寬的增長使得在兼容后續(xù)FC更高帶寬8G、16G的FCoE技術(shù)成為可能,如圖6所示,當前的10GE DCE技術(shù)支撐的FCoE可完全支持4G/8G FC向10G FCoE的融合,有些網(wǎng)卡的FC-FCoE映射就是直接將4G/8G FC載入以太網(wǎng)進行轉(zhuǎn)發(fā)。對于后續(xù)更高帶寬的40G以太網(wǎng)技術(shù)會延續(xù)和完善DCE特性,因此可對更高的FC帶寬16G進行融合。
圖6 FCoE的融合趨勢
統(tǒng)一交換網(wǎng)絡(luò)提供對云計算的支撐,可提供單一數(shù)據(jù)中心網(wǎng)絡(luò),實現(xiàn)云計算上層應用對數(shù)據(jù)交換、傳送通道與IO的簡化統(tǒng)一操作,同質(zhì)的底層網(wǎng)絡(luò)提供超高容量數(shù)據(jù)吞吐支撐、提供廣泛兼容的云應用升級與擴展能力。
3. 云計算的虛擬化交換網(wǎng)絡(luò)
虛擬化技術(shù)是云計算的關(guān)鍵技術(shù)之一,將一臺物理服務器虛擬化成多臺邏輯虛擬機VM,不僅可以大大提升云計算環(huán)境IT計算資源的利用效率、節(jié)省能耗,同時虛擬化技術(shù)提供的動態(tài)遷移、資源調(diào)度,使得云計算服務的負載可以得到高效管理、擴展,云計算的服務更具有彈性和靈活性。
從網(wǎng)絡(luò)角度看虛擬化的計算資源,,一個VM完全等效于一臺物理服務器在運行,而VM的動態(tài)機制,則與物理服務器的位置搬遷是完全不一樣的,對于VM遷移帶來的網(wǎng)絡(luò)配置、統(tǒng)計、策略控制等復雜管理工作,使得當前網(wǎng)絡(luò)運維難度增大,因此,網(wǎng)絡(luò)支持虛擬交換技術(shù),對于遷移的VM而言,網(wǎng)絡(luò)總可以跟隨VM的動態(tài)變化提供按需交換(配置、統(tǒng)計、監(jiān)控、管理),能夠極大強化云計算的虛擬化服務功能(如圖7所示)。
圖7 虛擬化交換網(wǎng)絡(luò)
一種新的網(wǎng)絡(luò)虛擬化技術(shù)EVB(Edge Virtual Bridging:IEEE 802.1Qbg)標準正在制訂,這種技術(shù)使得虛擬化后服務器上VM的虛擬網(wǎng)卡標準化,并以擴展的LLDP標準協(xié)議與網(wǎng)絡(luò)交換VM信息。EVB要求所有VM數(shù)據(jù)的交換(即使位于同一物理服務器內(nèi)部)都通過外部網(wǎng)絡(luò)進行,即外部網(wǎng)絡(luò)能夠支持虛擬交換功能,對于虛擬交換網(wǎng)絡(luò)范圍內(nèi)VM動態(tài)遷移、調(diào)度信息,均通過LLDP擴展協(xié)議得到同步以簡化運維。
4. 云計算的透明化交換網(wǎng)絡(luò)
對于虛擬化云計算服務,需要構(gòu)建大范圍(數(shù)據(jù)中心內(nèi)部、數(shù)據(jù)中心之間)的二層互聯(lián)網(wǎng)絡(luò),以支持虛擬機算資源的遷移和調(diào)度(對于大型集群計算,也可構(gòu)建二層網(wǎng)絡(luò),以保持集群的簡單,但目前也有構(gòu)建路由網(wǎng)絡(luò)連接實現(xiàn)大型集群)。二層網(wǎng)絡(luò)的好處是對虛擬機的透明化,但是為保證網(wǎng)絡(luò)的高性能、可靠性,需要解決網(wǎng)絡(luò)環(huán)路問題。
數(shù)據(jù)中心內(nèi)部,通過采用IRF2技術(shù)(智能彈性架構(gòu)),可以構(gòu)建大型的二層透明交換網(wǎng)絡(luò),具有網(wǎng)絡(luò)結(jié)構(gòu)簡單、保持高性能與高可靠、避免環(huán)路的好處。在數(shù)據(jù)中心內(nèi)部,構(gòu)建端到端的IRF2虛擬化網(wǎng)絡(luò),實現(xiàn)內(nèi)部虛擬化計算的透明交互(如圖8左側(cè)圖所示);構(gòu)建IRF2核心網(wǎng),核心網(wǎng)設(shè)備位于不同地域,但是虛擬化成一臺邏輯設(shè)備,數(shù)據(jù)中心與核心網(wǎng)以跨地域聚合鏈路互聯(lián),消除了網(wǎng)絡(luò)環(huán)路,也保證了網(wǎng)絡(luò)的可靠性和鏈路充分利用(如圖8右側(cè)圖所示)。
圖8 基于IRF2的云計算透明交換網(wǎng)
目前為解決網(wǎng)絡(luò)的二層透明環(huán)境部署問題,一種新技術(shù)TRILL(Transparent Interconnection of Lots of Links多鏈路透明互聯(lián))正在形成標準,這種技術(shù)的本質(zhì)是改造交換技術(shù)和IS-IS路由技術(shù),實現(xiàn)在IS-IS路由網(wǎng)絡(luò)下的大規(guī)模二層交換承載(如圖9所示)。
圖9 基于TRILL的透明交換網(wǎng)絡(luò)
TRILL網(wǎng)絡(luò)的鏈路層可以是以太網(wǎng),也可以是PPP鏈路,因此這種新的標準具有很大的適應性,可在數(shù)據(jù)中心內(nèi)部高速網(wǎng)絡(luò)實現(xiàn),也可以用于連接基于PPP鏈路的廣域網(wǎng)絡(luò)。
三、結(jié)束語
云計算作為一種新型的IT運行模式,要求新的架構(gòu)來支持其不斷發(fā)展,以實現(xiàn)云服務的彈性、動態(tài)等關(guān)鍵需求,而其支撐網(wǎng)絡(luò)也必然會形成統(tǒng)一的基礎(chǔ)架構(gòu),超高速、統(tǒng)一交換、虛擬交換、透明交換等新的技術(shù)特性會隨著技術(shù)的逐步成熟廣泛應用到云計算中。 本文出自:億恩科技【1tcdy.com】
服務器租用/服務器托管中國五強!虛擬主機域名注冊頂級提供商!15年品質(zhì)保障!--億恩科技[ENKJ.COM]
|