[申明]
北亞資料恢復中心 張宇
近日,遇到一例4塊盤scsi raid0+1的資料恢復,由4塊36g scsi組成。客戶稱是做了兩組raid1。出故障後,raid狀態裡3塊盤offline。
按我的理解,這個應該是兩組邏輯盤(分別做的raid1),那即使是3塊盤offline,也應該有一組邏輯盤是可以正常工作的。但客戶用裝在別的硬碟上的windows訪問此陣列時,也無法識別陣列的邏輯盤。這樣的話,很多就解釋不通了,只能仔細分析了。
拿下硬碟,單獨接在scsi介面卡上,進入系統,無異常,可以識別出4塊物理硬碟。分析,無明顯raid資訊區域,之後,對4塊盤做比較,結論是1、3號盤及2、4號盤每組都有相同性,但後面有大量不一致資料。1號盤及2號盤裡有分割槽表,每個分割槽表裡的描述都大約指出原邏輯盤分割槽總和大約68g。據此,可知有以下三種情況:
1、兩組raid0,但1、3號及2、4號均有部分完全相同的資料,應該可以排除。
2、raid1+0(即兩兩做raid1,再做raid0,這種安全級別高,客戶是整合商做的,可能性最大),一段時間內,兩組raid1中先後都有一塊硬碟離線(此後就相當於raid0,再不能提供任何冗餘)。再後來,又有一塊硬碟離線,系統崩潰。這種情況非常符合raid裡的表現。
3、raid0+1(即兩兩做raid0,再做raid1,這種不太好,推斷可能性不大)
根據分析後,發現除1、3組成的raid,無任何錯誤,認為應該是對了。重組資料。直接寫回raid,系統正常可以啟動。檔案訪問也正常。
本來以為已經完美解決了。結果很短的時間內收到客戶**,稱資料嚴重滯後,是兩年前的東西。
一細想,大悟。
真實的情況應該是:使用者做了raid0+1,結果組成raid1中的其中一組raid0中有一塊盤離線(應該為1或3),導致整個raid0離線(兩塊離線了),之後一直以單raid0的方式工作(想起來竟然兩年有餘,汗!),直到最近,剩下的一組raid0中有一塊盤離線,raid徹底癱瘓。使用者使用的raid卡為adaptec的0通道raid卡,比較低端,無法安全緩衝資料,最後離線時,因資料部分未寫入等原因導致檔案系統一致性有問題。
重新組織3及5號盤,修正錯誤,資料100%恢復成功。
此案例中突顯raid0+1及raid1+0的安全差別,細細說說吧。
raid0+1:
結構為,兩塊以上(含兩塊)硬碟先做條帶(raid0),組成相同的兩組一級邏輯盤。再將兩組邏輯盤做映象(raid1)。如下圖:
raid0+1的冗餘性(安全性):只要有一塊盤出錯,它所在的raid0就會整體離線,只能靠最外層的raid1的冗餘來支撐。實際上,只能允許一塊盤出錯,這樣如果在4塊以上的硬碟盤陣中,安全性實際會差得多。
利用率:1/2
效率:讀與寫均可以實現n/2(n為硬碟總數)的理論頻寬
實現:容易,控制器無需強勁處理能力,通常也無需大緩衝。
raid1+0:
raid1+0的冗餘性(安全性):只要有一塊盤出錯,它所在的raid1中不會有問題,所以每組raid1中都允許有一塊盤離線。安全性:損壞兩塊盤崩潰的機會只有2/(n-1)。
利用率:1/2
效率:讀與寫均可以實現n/2(n為硬碟總數)的理論頻寬
實現:容易,控制器無需強勁處理能力,通常也無需大緩衝。
上述分析,可以明顯看到,raid1+0比raid0+1的安全級別會高很多,其他引數卻相同。所以,需要安全級別高的場合下,一定要選擇raid1+0。實際上,raid0+1是華而不實的結構,很少會有它的適用場合。本文提及的案例,如果使用者使用的是raid1+0,出故障的概率便會低得多了。
以一起資料災難談RAID0 1及RAID1 0
近日,遇到一例4塊盤scsi raid0 1的資料恢復,由4塊36g scsi組成。客戶稱是做了兩組raid1。出故障後,raid狀態裡3塊盤offline。按我的理解,這個應該是兩組邏輯盤 分別做的raid1 那即使是3塊盤offline,也應該有一組邏輯盤是可以正常工作的。但客戶用裝在別的硬碟上...
週末跟朋友一起與客戶談需求有感
這一陣,一直沒玩沒了的加班。幾個有關聯的系統,不同的人設計。要求同時上線。然後開始各種加班。辛苦就不說了,直說下其中的一些問題。第一,幾個專案同時交工。這樣就不大可能讓同乙個人主導所有專案 實際執行,包括專案進度 第二,專案驗收和交付時間缺乏主動權。這樣就不得不趕工加班的直接原因。第三,需求不穩定。...
1 1 一起了解大資料!
什麼是大資料?大資料是指無法在一定時間範圍內用常規軟體工具進行捕捉 管理和處理的資料集合,是需要新處理模式才能具有更強的決策力 洞察發現力和流程優化能力的海量 高增長率和多樣化的資訊資產。大資料的作用?1 對大資料的處理分析正成為新一代資訊科技融合應用的結點。移動網際網路 物聯網 社交網路 數字家庭...