《淺談數(shù)據(jù)中心網(wǎng)絡架構(gòu)的發(fā)展【Fabic含義】》由會員分享,可在線閱讀,更多相關《淺談數(shù)據(jù)中心網(wǎng)絡架構(gòu)的發(fā)展【Fabic含義】(9頁珍藏版)》請在裝配圖網(wǎng)上搜索。
1、淺談數(shù)據(jù)中心網(wǎng)絡架構(gòu)的發(fā)展
一、傳統(tǒng)數(shù)據(jù)中心網(wǎng)絡架構(gòu)
數(shù)據(jù)中心前端計算網(wǎng)絡主要由大量的二層接入設備及少量的三層設備組成,傳統(tǒng)上是標準的三層結(jié)構(gòu)(如圖1所示):
圖1傳統(tǒng)數(shù)據(jù)中心網(wǎng)絡三層架構(gòu)
傳統(tǒng)的網(wǎng)絡模型在很長一段時間內(nèi),支撐了各種類型的數(shù)據(jù)中心,但隨著互聯(lián)網(wǎng)的發(fā)展以及企業(yè)IT信息化水平的提高,新的應用類型及數(shù)量急劇增長。隨著數(shù)據(jù)中心規(guī)模的不斷膨脹,以及虛擬化、云計算等新技術的不斷發(fā)展,僅僅使用傳統(tǒng)的網(wǎng)絡技術越來越無法適應業(yè)務發(fā)展的需要。在互聯(lián)網(wǎng)領域,這一點表現(xiàn)的尤為明顯。
二、數(shù)據(jù)中心網(wǎng)絡的新變化
截至2013年12月,中國網(wǎng)民規(guī)模達6.18億,全年共計新
2、增網(wǎng)民5358萬人,互聯(lián)網(wǎng)普及率為45.8%。大量網(wǎng)民的涌入必然帶來網(wǎng)絡流量的急劇膨脹。對于互聯(lián)網(wǎng)企業(yè),承載具體應用的數(shù)據(jù)中心的計算資源及網(wǎng)絡節(jié)點常常滿負荷運轉(zhuǎn);而對于傳統(tǒng)企業(yè),隨著自身業(yè)務量的增加,以及各類業(yè)務互聯(lián)網(wǎng)化的需求,對數(shù)據(jù)中心的整體的吞吐量也提出了新的要求。
服務器萬兆網(wǎng)絡接入漸成主流
受成本、以及技術成熟度制約,傳統(tǒng)數(shù)據(jù)中心以千兆接入為主。隨著CPU計算能力的不斷提高,目前主流的服務器處理性能,已經(jīng)超出了千兆網(wǎng)卡的輸出能力。同時,F(xiàn)C存儲網(wǎng)絡與IP網(wǎng)絡的融合,也要求IP網(wǎng)絡的接入速率達到FC的性能要求。當僅僅通過鏈路聚合、增加等價路徑等技術手段已經(jīng)無法滿足業(yè)務對網(wǎng)絡性
3、能的需求時,提高網(wǎng)絡端口速率成為必然之選。
萬兆以太網(wǎng)從起步到目前逐漸成為應用主流,延續(xù)了以太網(wǎng)技術發(fā)展的主基調(diào),憑借其技術優(yōu)勢,替代其他網(wǎng)絡接入技術,成為高性能網(wǎng)絡的不二選擇。目前新的數(shù)據(jù)中心,萬兆網(wǎng)絡接入已成為事實上的標準。
數(shù)據(jù)中心流量模型發(fā)生顯著變化
傳統(tǒng)的數(shù)據(jù)中心內(nèi),服務器主要用于對外提供業(yè)務訪問,不同的業(yè)務通過安全分區(qū)及VLAN隔離。一個分區(qū)通常集中了該業(yè)務所需的計算、網(wǎng)絡及存儲資源,不同的分區(qū)之間或者禁止互訪,或者經(jīng)由核心交換通過三層網(wǎng)絡交互,數(shù)據(jù)中心的網(wǎng)絡流量大部分集中于南北向。
在這種設計下,不同分區(qū)間計算資源無法共享,資源利用率低下的問題越來越突出。
4、通過虛擬化技術、云計算管理技術等,將各個分區(qū)間的資源進行池化,實現(xiàn)數(shù)據(jù)中心內(nèi)資源的有效利用。而隨著這些新技術的興起和應用,新的業(yè)務需求如虛擬機遷移、數(shù)據(jù)同步、數(shù)據(jù)備份、協(xié)同計算等在數(shù)據(jù)中心內(nèi)開始實現(xiàn)部署,數(shù)據(jù)中心內(nèi)部東西向流量開始大幅度增加。
物理二層向邏輯二層轉(zhuǎn)變
在虛擬化初期,虛擬機管理及遷移主要依靠物理的網(wǎng)絡,由于遷移本身要求二層網(wǎng)絡,因此數(shù)據(jù)中心內(nèi)部東西向流量主要是二層流量。為增加二層物理網(wǎng)絡的規(guī)模,并提高鏈路利用率,出現(xiàn)了TRILL、SPB等大二層網(wǎng)絡技術。
隨著虛擬化數(shù)據(jù)中心規(guī)模的擴大,以及云化管理的深入,物理網(wǎng)絡的種種限制越來越不適應虛擬化的要求,由此提出了VX
5、LAN、NVGRE等網(wǎng)絡Overlay方案,在這一方案下,物理網(wǎng)絡中的東西向流量類型也逐漸由二層向三層轉(zhuǎn)變,通過增加封裝,將網(wǎng)絡拓撲由物理二層變?yōu)檫壿嫸?,同時提供邏輯二層的劃分管理,更好的滿足了多租戶的需求。
VXLAN、NVGRE等Overlay技術都是通過將MAC封裝在IP之上,實現(xiàn)對物理網(wǎng)絡的屏蔽,解決了物理網(wǎng)絡VLAN數(shù)量限制、接入交換機MAC表項有限等問題。同時通過提供統(tǒng)一的邏輯網(wǎng)絡管理工具,方便的實現(xiàn)了虛擬機HA遷移時網(wǎng)絡策略跟隨的問題,大大降低了虛擬化對網(wǎng)絡的依賴,成為了目前網(wǎng)絡虛擬化的主要發(fā)展方向。
越來越多的網(wǎng)絡扁平化需求
隨著虛擬化技術的進步,每臺物理服
6、務器的虛擬機數(shù)量由8臺提升至16臺、32臺甚至更多,這使得低延遲的服務器間通信和更高的雙向帶寬需求變得更加迫切。然而傳統(tǒng)的網(wǎng)絡核心、匯聚和接入的三層結(jié)構(gòu),服務器虛擬化后還有一個虛擬交換機層,而隨著刀片服務器的廣泛應用,刀片式交換機也給網(wǎng)絡添加了一層交換。如此之多的網(wǎng)絡層次,使得數(shù)據(jù)中心計算節(jié)點間通信延時大幅增加,這就需要網(wǎng)絡化架構(gòu)向扁平化方向發(fā)展,最終的目標是在任意兩點之間盡量減少網(wǎng)絡架構(gòu)的數(shù)目。
伴隨著業(yè)務訪問量的增長,所需的服務器數(shù)量也需要持續(xù)增長。比如國內(nèi)騰訊、百度、阿里三家互聯(lián)網(wǎng)公司,為滿足用戶訪問,平均每兩周就有1000臺以上服務器上線。這樣的上線速度和數(shù)量,對整個數(shù)據(jù)中心的自
7、動化運維提出了極高的要求,基礎的網(wǎng)絡同樣需要適應這種需求。
網(wǎng)絡扁平化后(如圖2所示),減少了中間層次,對核心設備交換能力要求降低,對于數(shù)據(jù)中心而言,后續(xù)擴容只需要以標準的機柜(包含服務器及柜頂交換單元)為單位增加即可,這樣既滿足了數(shù)據(jù)中心收斂比的要求,又能滿足服務器快速上線需要。扁平化成為互聯(lián)網(wǎng)企業(yè)網(wǎng)絡設計不斷追求的目標。
圖2騰訊數(shù)據(jù)中心網(wǎng)絡采用的二層扁平結(jié)構(gòu)
數(shù)據(jù)中心的這些變化,對網(wǎng)絡提出了更高的要求。Fabric物理網(wǎng)絡架構(gòu)成為解決上述難題的一個重要手段。Fabric英文原意為"織物、布、結(jié)構(gòu)、建筑物、構(gòu)造","Fabric網(wǎng)絡架構(gòu)"則因其內(nèi)部縱橫互聯(lián)類似紡織
8、結(jié)構(gòu)而得名。簡單的說,就是通過骨干網(wǎng)絡節(jié)點間分層互聯(lián)(或全互聯(lián))的方式,提供所有接入網(wǎng)絡的各類節(jié)點間的無差異互訪。
在Fabric架構(gòu)下(如圖3所示),所有節(jié)點可以全互聯(lián),也可以分層互聯(lián)。分層結(jié)構(gòu)下,節(jié)點類型分為骨干節(jié)點(Spine)和葉子節(jié)點(Leaf),骨干節(jié)點與葉子節(jié)點間全連接,骨干節(jié)點僅用作轉(zhuǎn)發(fā),葉子節(jié)點作為二三層的邊界。在這種架構(gòu)下,網(wǎng)絡全互聯(lián)形成的大量等價路徑既保證了鏈路的冗余可靠,又提高了整個Fabric網(wǎng)絡的吞吐量;扁平的網(wǎng)絡結(jié)構(gòu)保證了任意節(jié)點間較高的連接速率,同時對任意類型流量均擁有極低的時延。
圖3Fabric網(wǎng)絡拓撲結(jié)構(gòu)
Fabric架構(gòu)給數(shù)據(jù)中心網(wǎng)
9、絡部署帶來以下好處:
可以大幅降低服務器萬兆接入的建設成本。當前100GE設備及布線成本都十分高昂,服務器采用10GE接入后,傳統(tǒng)結(jié)構(gòu)下,匯聚及核心層設備必須具備100GE的轉(zhuǎn)發(fā)能力才能保證盡量低的收斂比。在新的網(wǎng)絡結(jié)構(gòu)下,骨干節(jié)點只做交換,網(wǎng)關直接部署在葉子節(jié)點,F(xiàn)abric內(nèi)部采用40GE速率即可滿足萬兆接入需求,大幅降低了網(wǎng)絡建設成本。
可以支持更大的數(shù)據(jù)中心。由于這種結(jié)構(gòu)的扁平化特點,在較低的收斂比下,可以通過簡單的增加接入設備,方便的接入幾千個計算節(jié)點,通過Fabric間互聯(lián),可以很容易的增加至上萬個計算節(jié)點,滿足了現(xiàn)代大型數(shù)據(jù)中心規(guī)模建設的需求。
可以滿足云計算的
10、網(wǎng)絡需要。云計算將計算資源做成了一個資源池,而Fabric結(jié)構(gòu)將網(wǎng)絡做成了一個大的資源池。這種結(jié)構(gòu)不再區(qū)分南北流量和東西流量,使得計算節(jié)點與任意方向通信均無阻塞;對服務器的接入位置沒有要求,無論采用VLAN、VXLAN、NVGRE等何種技術,任意節(jié)點間可以實現(xiàn)高速、低時延的互聯(lián),大幅提高了整網(wǎng)性能。
但是,F(xiàn)abric架構(gòu)并非完美。葉子節(jié)點網(wǎng)絡設備無論是性能要求還是功能要求,均高于傳統(tǒng)架構(gòu)下的接入設備,其作為各種類型的網(wǎng)關(二三層間、VLAN/VXLAN間、VXLAN/NVGRE間、FC/IP間等等),芯片處理能力要求較高,目前尚無滿足所有協(xié)議間互通的商用芯片;由于不存在相關的標準,為了
11、實現(xiàn)各種類型網(wǎng)絡的接入,其骨干節(jié)點與葉子節(jié)點間的轉(zhuǎn)發(fā)各個廠商均采用了私有封裝,這也為將來的互通設置了難題。
Fabric網(wǎng)絡架構(gòu)這一全新的數(shù)據(jù)中心網(wǎng)絡架構(gòu)(現(xiàn)代數(shù)據(jù)中心網(wǎng)絡架構(gòu)),在規(guī)模、性能和簡單性方面實現(xiàn)質(zhì)的飛躍,同時還降低了建設成本,獲得了更大的敏捷性和效率,雖然各個廠商在實現(xiàn)這一架構(gòu)時存在一些自己私有的處理,但目前的確已成為未來數(shù)據(jù)中心網(wǎng)絡架構(gòu)的一個公認的發(fā)展方向。
三、未來彈性、自適應的數(shù)據(jù)中心網(wǎng)絡
我們同樣看到,物理網(wǎng)絡架構(gòu)改變后一些問題仍然存在,僅僅依靠對傳統(tǒng)技術的修修補補已經(jīng)無法滿足未來數(shù)據(jù)中心網(wǎng)絡的需求。
數(shù)據(jù)中心規(guī)模越來越大,給運維管理帶來壓力?,F(xiàn)代(特
12、別是大型互聯(lián)網(wǎng)企業(yè))的數(shù)據(jù)中心,規(guī)模越來越大(如騰訊天津濱海數(shù)據(jù)中心,一期規(guī)模8萬臺服務器,規(guī)劃規(guī)模達到20萬臺),所需要的網(wǎng)絡設備數(shù)量相當驚人。除了各個層次大量的交換機外,可能還需要部署防火墻、防攻擊設備、負載均衡、流量清洗等等網(wǎng)絡安全設備,設備類型也會越來越豐富。同時,這些網(wǎng)絡設備來自不同的廠家,擁有不一樣的操作方式。這些對運維人員的能力提出了更高的要求。
版本更新、業(yè)務變更越來越困難。網(wǎng)絡需要變更以適應用戶業(yè)務發(fā)展的需要,同時設備廠家會根據(jù)需要不定期發(fā)布軟件修正版本。但當數(shù)據(jù)中心發(fā)展到一定規(guī)模后,無論是業(yè)務變更還是版本更新,都變得非常困難,這既有設備規(guī)模過大帶來的巨大工作量的問題,
13、也有如何保證業(yè)務連續(xù)不中斷的考慮。
精確的流量控制越來越難。當前流量控制主要是基于ACL及QoS,通過識別特定的流量、對其應用特定的策略,來實現(xiàn)對業(yè)務流量的管控。由于流量策略都是基于管理員對流量運行的假設,在各個設備預先配置來實現(xiàn),且策略類型較少,而實際網(wǎng)絡上業(yè)務流量瞬息萬變,預先設置的策略往往不能很好的匹配,無法實現(xiàn)復雜的管理控制邏輯,使得QoS實施效果不佳。
歸結(jié)以上問題,實際上是網(wǎng)絡缺乏統(tǒng)一的"大腦"。一直以來,網(wǎng)絡的工作方式是:網(wǎng)絡節(jié)點之間通過各種交互機制,獨立的學習整個網(wǎng)絡拓撲,自行決定與其他節(jié)點的交互方式;當流量過來時,根據(jù)節(jié)點間交互做出的決策,獨立的轉(zhuǎn)發(fā)相應報文;當網(wǎng)
14、絡中節(jié)點發(fā)生變化時,其他節(jié)點感知變化重新計算路徑。網(wǎng)絡設備的這種分散決策的特點,在此前很長一段時間內(nèi)滿足了互聯(lián)互通的需要,但由于這種分散決策機制缺少全局掌控,在需要流量精細化控制管理的今天,表現(xiàn)出越來越多的問題。
經(jīng)過多年的發(fā)展,SDN為解決這些難題提供了可行的解決方案(如圖4所示)。它通過集中的控制器來實現(xiàn)對整網(wǎng)設備的監(jiān)控和管理,利用軟件的靈活、動態(tài)可擴展,提供豐富的管理控制策略,通過開放相關API,可以集成第三方APP,實現(xiàn)更多的個性化的網(wǎng)絡控制。
圖4ONF典型SDN控制器架構(gòu)
SDN網(wǎng)絡是一種全新的網(wǎng)絡。在這樣的網(wǎng)絡中,控制器就是大腦,它掌控全局,學習整網(wǎng)的拓撲,
15、管理網(wǎng)絡中的各個節(jié)點。網(wǎng)絡中的其他節(jié)點,只需要向"大腦"上報網(wǎng)絡變化,并按照"大腦"的指揮,完成自己的工作即可。隨著網(wǎng)絡的規(guī)模的增加,網(wǎng)絡中"大腦"的數(shù)量、功能也隨之增加。比如,每臺控制器所管理的節(jié)點數(shù)量有限,可以組成控制器集群管理整個網(wǎng)絡;有的控制器控制流量轉(zhuǎn)發(fā),有的控制器控制安全策略,還有的控制器控制虛擬網(wǎng)絡的管理等等。
SDN的發(fā)展也同樣存在相當?shù)牟淮_定性。傳統(tǒng)的南向接口OpenFlow會越來越復雜,現(xiàn)有網(wǎng)絡設備無法簡單升級支持;同時滿足大流表的需求將大幅提高芯片成本;控制器發(fā)展不統(tǒng)一,各個廠家都在爭奪自己在未來SDN網(wǎng)絡的話語權(quán),標準化進程緩慢,各種私有的協(xié)議加入將導致未來網(wǎng)絡成為少數(shù)玩家的地盤。但我們同樣相信,無論具體實現(xiàn)形式如何,SDN這種集中管控、靈活動態(tài)的網(wǎng)絡部署必將成為未來的發(fā)展趨勢。
四、結(jié)束語
我們很快就會看到,新的數(shù)據(jù)中心采用云計算技術對所有虛擬計算資源集中管理,F(xiàn)abric架構(gòu)的網(wǎng)絡無縫實現(xiàn)了數(shù)據(jù)中心各個區(qū)域的互聯(lián),基于Overlay的二層網(wǎng)絡實現(xiàn)了虛擬機的流暢遷移,集中化的SDN網(wǎng)絡控制器提供對數(shù)據(jù)中心整網(wǎng)的監(jiān)控,各種流量根據(jù)數(shù)據(jù)中心當前網(wǎng)絡狀況實時切換經(jīng)由路徑,偌大的數(shù)據(jù)中心內(nèi),寥寥數(shù)人便完成了全部的運維管理。我們相信,這就是將來的數(shù)據(jù)中心的工作情景。