一、需求分析
隨著網際網路的高速發展,作為web、email、sql、ftp、erp、dns、集群等等常見伺服器的請求資料量越來越大,同時對應用的高可用性提出了更高的要求,伺服器主備冗餘模式已經不能滿足當前需求,部署伺服器負載均衡裝置勢在必得。作為應用交付行業內最為成熟的方案提供商f5,其產品技術先進,功能齊全,質量可靠已被世界上很多知名的企業選用,如microsoft,oracle,usa today,alaska? airline等總數超過600家。它的主要產品有big/ip,3dns,global/site,see/it。 伺服器負載均衡解決方案通過提供第4到第7層智慧型特性消除了單點故障,並實現了網路與應用的虛擬化,這樣可確保客戶的應用系統始終保持高可靠的正常執行,並使其更具可擴充性和更易於管理。
二、部署方式
2.1 單臂旁路接入
2.2 雙臂串接接入
備註:f5支援單臂旁路接入和雙臂序列等接入方式。因為f5埠個數有限,建議採用單臂旁路模式,即f5旁掛在交換機上,通過交換機完成與伺服器和客戶端之間的通訊。
三、f5 big-ip本地流量負載均衡
3.1 伺服器負載均衡演算法
big-ip是一台對流量和內容進行管理分配的裝置。它提供10種靈活的演算法將資料流有效地**到它所連線的伺服器群。而面對使用者,只是一台虛擬伺服器。使用者此時只須記住一台伺服器,即虛擬伺服器。但他們的資料流卻被big-ip靈活地均衡到所有的伺服器。
這10種演算法包括:
輪詢(round robin):順序迴圈將請求一次順序迴圈地連線每個伺服器。當其中某個伺服器發生第二到第7層的故障,big-ip就把其從順序迴圈佇列中拿出,不參加下一次的輪詢,直到其恢復正常。
比率(ratio):給每個伺服器分配乙個加權值為比例,根椐這個比例,把使用者的請求分配到每個伺服器。當其中某個伺服器發生第二到第7層的故障,big-ip就把其從伺服器佇列中拿出,不參加下一次的使用者請求的分配,直到其恢復正常。
優先權(priority):給所有伺服器分組,給每個組定義優先權,big-ip使用者的請求,分配給優先順序最高的伺服器組(在同一組內,採用輪詢或比率演算法,分配使用者的請求);當最高優先順序中所有伺服器出現故障,big-ip才將請求送給次優先順序的伺服器組。這種方式,實際為使用者提供一種熱備份的方式。
最少的連線方式(least connection):傳遞新的連線給那些進行最少連線處理的伺服器。當其中某個伺服器發生第二到第7層的故障,big-ip就把其從伺服器佇列中拿出,不參加下一次的使用者請求的分配,直到其恢復正常。
最快模式(fastest):傳遞連線給那些響應最快的伺服器。當其中某個伺服器發生第二到第7層的故障,big-ip就把其從伺服器佇列中拿出,不參加下一次的使用者請求的分配,直到其恢復正常。
觀察模式(observed):連線數目和響應時間以這兩項的最佳平衡為依據為新的請求選擇伺服器。當其中某個伺服器發生第二到第7層的故障,big-ip就把其從伺服器佇列中拿出,不參加下一次的使用者請求的分配,直到其恢復正常。
**模式(predictive):big-ip利用收集到的伺服器當前的效能指標,進行**分析,選擇一台伺服器在下乙個時間片內,其效能將達到最佳的伺服器相應使用者的請求。(被big-ip進行檢測)
動態效能分配(dynamic ratio-apm):big-ip收集到的應用程式和應用伺服器的各項效能引數,動態調整流量分配。
動態伺服器補充(dynamic server act):當主伺服器群中因故障導致數量減少時,動態地將備份伺服器補充至主伺服器群。
規則模式:針對不同的資料流設定導向規則,使用者可自行編輯流量分配規則,big-ip利用這些規則對通過的資料流實施導向控制。
3.2 伺服器健康檢查方法
3.3 會話保持技術
當使用big-ip對伺服器進行負載均衡時,就需要會話保持。如果某位使用者連線到了一台伺服器上,那麼我們肯定希望該使用者在將來再次連線時將仍可連線到該台伺服器上。當該伺服器存有使用者相關資料,並且這些資料並不與其它伺服器動態共享時,持續性就顯得十分有必要了。例如,假設一位使用者在某**採購了一「購物車」的商品,然後還未結帳就離開了該**。如果在其重新登入**後,big-ip應用交換機將客戶請求路由至不同的伺服器,那麼新的伺服器對該使用者的資料和其所購買的商品將一無所知。當然,如果所有伺服器都在同乙個後台資料庫伺服器中儲存使用者資訊及其選購商品的話,那麼一切就不成問題了。但是如果**不是這樣設計的,那麼具體的購物車資料就只能儲存在特定的伺服器上。這樣,big-ip應用交換機就必需選擇使用者曾連線上的那台伺服器,以無縫地處理使用者請求。
big-ip提供以下幾種會話保持方法:****** persistence,ssl session id persistence,sip persistence,cookie persistence,imode persistence,目的位址歸類。
四、f5-ltm相關加速技術
4.1 one connect降低伺服器tcp連線數量
◆使用者因連線和斷開網路連線而產生的週期性網路請求會耗費掉企業寶貴的 web 應用資源。即使每個連線開銷很小,但合到一起,它們將影響到總的應用負載,對於電子商務站點和擁有大量使用者的企業應用來說,這一點尤為明顯。在apache server的標準配置中,一台伺服器的最高併發連線數為1024個,而microsoft iis可配置為2048個。可見連線數對於伺服器是乙個極大的限制,在應用伺服器上比如weblogic,websphere上,連線數的增加將會給系統增加大量的開銷。
◆與其它的連線優化技術不同,f5 採用了動態連線池的方式,當每乙個使用者請求傳送到wa時,根據負載均衡策略, wa將在請求將被傳送到的伺服器端尋找空閒的連線,如果有空閒連線,則直接將請求通過該連線傳送到伺服器,如果沒有空閒連線,則新建乙個連線與伺服器端通訊。這樣,既保證了在伺服器端始終維持最小的連線數,又避免了由於沒有空閒連線而導致的客戶端請求排隊的現象。
4.2 http頁面壓縮
應用和網路延遲問題進一步降低了 web 內容的傳輸速度。web accelerator專利技術- express 壓縮技術能夠消除因壓縮演算法所帶來的延遲,為撥號和寬頻使用者帶來額外的效能提公升。事實上,借助 express 壓縮,撥號使用者的訪問速率將比原來快 5 到 10 倍,同時頻寬利用率和成本將降低 70%-80%。
4.3 ram cache
在bigip-ltm上,可以通過配置記憶體cache來提高系統響應速度,並減小伺服器端的壓力。通過記憶體cache機制,wa可以把頻繁訪問的內容存放在記憶體中,當下一次請求到達時,直接從記憶體返回使用者請求的頁面。從而降低了伺服器的請求壓力。
◆在ssl處理過程中,所有的傳輸內容均採用加密演算法處理。其中最重要的兩個部分為ssl握手時交換秘鑰的非對稱加密和資料傳輸時的對稱加密。
◆當ssl的客戶端壓力超過400tps時,單台伺服器就很難處理請求了。因此,必須採用ssl加速裝置來進行處理。
◆所有的ssl流量均在f5上終結,f5與伺服器之間可採用http或者弱加密的ssl進行通訊。這樣,就極大的減小了伺服器端對https處理的壓力,可將伺服器的處理能力釋放出來,更加專注的處理業務邏輯。
◆在f5可處理單向ssl連線,雙向ssl連線。並且可同時處理多種型別和多個應用的ssl加解密處理。
4.5 裝置自身冗餘機制
bigip可以實現兩種方式實現冗餘連線,一是active-backup方式,另一種是active-active方式。物理連線方式如下圖所示:
伺服器負載均衡解決方案
伺服器負載均衡解決方案 一 需求分析 隨著網際網路的高速發展,作為web email sql ftp erp dns 集群等等常見伺服器的請求資料量越來越大,同時對應用的高可用性提出了更高的要求,伺服器主備冗餘模式已經不能滿足當前需求,部署伺服器負載均衡裝置勢在必得。作為應用交付行業內最為成熟的方案...
FCS多伺服器負載均衡的解決方案
因為fcs伺服器的頻寬消耗很厲害,要在多個fcs伺服器之間實現負載均衡是比較麻煩的事情,peldi的幾篇文章很不錯,可以借鑑下。真的很不錯的思路,不愧是fcs的老祖,呵呵 peldi的例子可以了解哪個fcs伺服器當前是可用的,一共使用了三個伺服器端檔案。詳細使用請參考相關 1.在每個fcs節點伺服器...
負載均衡解決方案
某 隨著知名度的提高,使用者訪問量日漸增多,近段時間以來,由於訪問量的激增,服務不可用的情況時有發生。針對這種狀況,結合實際情況,設計了一套解決方案。技術實現 1 負載均衡。2臺同樣配置的linux伺服器,核心支援lvs,配置keepalived工具,即可實現負載 一旦其後的真實伺服器出現故障,ke...