雲計算意味著可以更便捷的使用計算、網路、儲存資源,每乙個元素都可根據使用者業務靈活組合配置,其中網路環境直接關係到雲中的資訊流通,如何構建控制、可靠、效率俱佳的網路環境,是雲計算在iaas層面必須面對的挑戰,而虛擬交換機作為iaas體系中連線虛擬網路、物理網路的橋梁的地位已經無可撼動。
sdn是數通行業大約每十年一次變革的最新版本,不同於以往的iso與tcp/ip之爭,也不同於atm與ip之爭,sdn從一開始就不打算作現有網路的顛覆者,而是在現有網路基礎上,提供極致的面向應用的控制方式,虛擬交換機在這輪變革中充當了急先鋒,作為第乙個openflow交換機,openvswitch已經廣為業界所熟悉並採用。
同時在兩波浪潮中扮演重要角色,虛擬交換機地位不言而喻,他將可控的網路邊緣延伸到伺服器中,除了在伺服器內高效地**,還可將統一的控制策略和安全策略無縫地從物理網路過度到虛擬網路。
一、虛擬交換機的問題和對策
虛擬化伺服器中,如何將虛擬機器的流量以更優的方式接入到物理網路中經歷了一系列技術變動,包括vntag(802.1qbh)、vepa(802.1qbg),做法不一而同,但到目前為止,使用虛擬交換機作為支撐伺服器網路的基石已經基本成為共識,因為更方便部署、對物理網路要求更低、擴充套件和控制更簡便。
如圖1所示虛擬交換機執行在虛擬伺服器hypervisor內部,vm之間的流量、vm到物理網路之間的流量均通過vswitch**,vswitch 的**行為完全由sdn controller控制。
基於虛擬交換機的主機overlay方案更易於虛擬網路的管理,進一步減少了對overlay物理承載網路的額外要求,使虛擬網路最大限度擺脫了物理網路的限制,可以說主機overlay是對虛擬交換機地位的強化。
為了交付高品質的虛擬交換機產品,需要在效能、開放性、安全性、多平台、適應性方面下一番功夫。
怎樣才算是開放的虛擬交換機?提供開放的api控制介面,控制器與虛擬交換機之間的會話基於開放的標準,承載網路的封裝基於開放的協議,比如openstack網路元件相容的rest api,openflow控制協議,vxlan/vlan封裝,這些關鍵技術都是開放的標誌,但還不僅於此,能夠在開放技術基礎上進一步發展、交付豐富的特性,並與開源雲平台系統、第三方雲平台系統和第三方sdn網路深度融合,而又不失上述開放性,也許才是更有價值的開放,這樣的虛擬交換機帶給客戶的將不僅是透明的技術方案,還有抓住未來發展趨勢的可能。
如何提高虛擬交換機的**效能?從石頭中擠水是從實現級別進行優化的形象比喻。 對網路和sdn內涵的深入理解,可以幫助我們從區域性優化的深井中爬出,看到dvr技術、dfw技術如何促成虛擬機器間的流量如何避開繞行閘道器,高效、安全的**。
如圖2所示紅色vm屬於同租戶的不同虛機,並且分屬不同網段,按照某些系統的設計,跨主機的vm通訊必須經過l3 gateway做集中的三層**,dvr(distribute vritual routing,分布式虛擬路由)技術是指在控制器控制下,這些vm之間的流量無需繞行l3 gataway,直接在伺服器內部或通過二層交換機即可實現跨三層**,較繞行l3 gateway效能提高,同租戶內虛機從邏輯上好像擁有了一台邏輯上存在的路由器,也就是dvr所代表的含義。
系統級的效能提公升技術也是從根本上解決問題的手段之一,比如基於伺服器主流的硬體x86平台的效能提公升技術intel dpdk(data plane development kit),甚至連基於dpdk的實驗性質的ovdk(openvswitch的dpdk版本)專案也備受關注,業界的期待程度可見一斑,各廠商都在積極研究,並以可靠可用的方式逐步落地為工業級數通產品。
dpdk的技術思路有別於傳統的資料平面,他試圖拋棄已有系統的負擔,通過無鎖化、去掉中斷干擾、高效使用記憶體、充分利用多核cpu並行等手段創造乙個全新的資料平面執行環境,在這個全新的環境中,超高效的**成為可能,已知的業界資料表明可以在intel cpu和網絡卡上得到十gbps、甚至百gbps的吞吐量效能,雖然dpdk在某些場景還存在一定限制,但是必將成為未來提高基於軟體**的虛擬交換機效能的方向之一。
安全性方面,支援主流的vlan、vxlan網路虛擬化技術,實現對租戶內、租戶間網路的底層隔離,同時支援多種安全策略,基於acl的包過濾防火牆和分布式狀態防火牆,這些技術將伺服器網路的安全控制粒度和處理效能提公升高到了新的高度,核心技術思路是控制和處理貼近流量**,將安全的管理和處理真正延伸的到伺服器。
當vm2向vm1發起訪問時,控制器根據訪問策略感知訪問是否受限,若策略允許**,則在兩個伺服器上同時下發正向和反向流表,確保雙向流量暢通。
相對於將所有vm間流量引入集中式的防火牆統一處理,分布式防火牆在安全策略處理位置上都更加貼近流量的源頭或目標,所以他的優勢不僅在於利用分布式的vswitch提高整體**效能,規避集中式防火牆可能成為效能瓶頸和可能的單點故障,更在於第一時間將非法流量從網路中清除,不讓它影響網路的,這也是未來vswitch的業務能力在多個維度增強的現實依據,值得包括使用者和廠商在內的生態系統各方展開想象,充分研究和利用。
如果說dfw解決了虛擬網路側的安全效能和第一時間安全處理問題,那麼vswitch結合豐富的服務鏈(service chain),則是為整個雲網路提供了終極的安全、業務綜合能力:
通過對vlb、vfw等型別服務節點的編排和組合,可以在流量的**路徑中根據控制其的統一策略完成一些列預定的安全、業務處理,達到整體網路安全性的目標,流量的方向包括虛擬機器之間、虛擬機器到外部網路,而虛擬交換機作為虛擬機器流量的接入裝置,需要首先對報文進行標識,這樣,所經過服務鏈節點才得以了解所需處理的業務。
多虛擬化平台方面,目前可商用的雖然種類繁多,但是主流不外乎vmware vsphere、h3c vck(cas)、kvm和xen等一系列基於linux的hypervisor,每種虛擬化平台均可看到成熟的虛擬交換機產品,比如vmware vsphere平台上既可以執行vmware自有的nsx,也可以執行cisco的f1000v,而kvm、xen上則是開源的openvswitch,控制和執行機制也有所不同,在一些需要互操作、相容性的場合,往往讓使用者的管理方式、運維方式難以統一,造成一定的困擾,如何將適用於多種虛擬化平台的虛擬交換機統一管理也是未來雲環境中網路發展的重要課題。
適應性方面,可以把虛擬交換機的執行環境按照控制方式的「輕」、「重」分為兩種,一種是在高度智慧型、可靠的sdn控制器控制下的「重」控制網路;一種是在雲計算系統中或第三方雲系統中,僅通過vsm(virtual supervisor module)響應少量的關鍵事件即可完成對虛擬交換機的資訊下發的「輕」控制網路。「重」控制方式下,虛擬交換機側重於對控制器的響應,「輕」控制方式下,則側重於自身的功能和靈活性,和與第三方系統的融合程度,表面上看更「輕」了,其實要求更「重」了,這種適應性往往也是衡量虛擬交換機是否具有彈性和擴充套件性的重要標誌。
虛擬化實戰 網路設計之一vSwitch
問題描述 哪一種vswitch最適合你的環境?vsphere standard switch vss vsphere distributed switch vds 還是cisco nexus 1000v?情景一 某小型公司預計在虛擬環境中部署esxi主機5臺,目前購買軟體許可的預算不多。it人員有一...
vsphere埠組和vswitch的負載平衡策略
1 esxi中的網路,物理網絡卡稱作 vmnic0 虛擬交換機則是vswitch0 開始編號的,預設系統會建立乙個vswitch0的交換機,每個交換機可以由一片或者多片vmnic組成。2 esxi中的虛擬交換機是通過埠組 port group 進行邏輯區分的,不同的埠組具有不同的功能,esxi具有三...
2015 4 8 物理和虛擬位址
在計算機中,每個程式要是想先執行,首先要載入到記憶體中,但是記憶體是有限的,也就是說我程式的大小也是受到了限制的,這樣並不好。因此,發明了一種思想,這是乙個抽象概念 虛擬儲存器。當我需要資料或者程式的時候,再載入到我的記憶體中執行,否則就儲存在硬碟上,但是如果我要是想呼叫程式中的某一部分 的時候,由...