談到大資料,相信大家對hadoop和apache spark這兩個名字並不陌生。但我們往往對它們的理解只是提留在字面上,並沒有對它們進行深入的思考,下面不妨跟我一塊看下它們究竟有什麼異同。
首先,hadoop和apache spark兩者都是大資料框架,但是各自存在的目的不盡相同。hadoop實質上更多是乙個分布式資料基礎設施: 它將巨大的資料集分派到乙個由普通計算機組成的集群中的多個節點進行儲存,意味著您不需要購買和維護昂貴的伺服器硬體。
同時,hadoop還會索引和跟蹤這些資料,讓大資料處理和分析效率達到前所未有的高度。spark,則是那麼乙個專門用來對那些分布式儲存的大資料進行處理的工具,它並不會進行分布式資料的儲存。
hadoop除了提供為大家所共識的hdfs分布式資料儲存功能之外,還提供了叫做mapreduce的資料處理功能。所以這裡我們完全可以拋開spark,使用hadoop自身的mapreduce來完成資料的處理。
相反,spark也不是非要依附在hadoop身上才能生存。但如上所述,畢竟它沒有提供檔案管理系統,所以,它必須和其他的分布式檔案系統進行整合才能運作。這裡我們可以選擇hadoop的hdfs,也可以選擇其他的基於雲的資料系統平台。但spark預設來說還是被用在hadoop上面的,畢竟,大家都認為它們的結合是最好的。
以下是從網上摘錄的對mapreduce的最簡潔明瞭的解析:
我們要數圖書館中的所有書。你數1號書架,我數2號書架。這就是「map」。我們人越多,數書就更快。
現在我們到一起,把所有人的統計數加在一起。這就是「reduce」。
spark資料處理速度秒殺mapreduce
spark因為其處理資料的方式不一樣,會比mapreduce快上很多。mapreduce是分步對資料進行處理的: 」從集群中讀取資料,進行一次處理,將結果寫到集群,從集群中讀取更新後的資料,進行下一次的處理,將結果寫到集群,等等…「 booz allen hamilton的資料科學家kirk borne如此解析。
反觀spark,它會在記憶體中以接近「實時」的時間完成所有的資料分析:「從集群中讀取資料,完成所有必須的分析處理,將結果寫回集群,完成,」 born說道。spark的批處理速度比mapreduce快近10倍,記憶體中的資料分析速度則快近100倍。
如果需要處理的資料和結果需求大部分情況下是靜態的,且你也有耐心等待批處理的完成的話,mapreduce的處理方式也是完全可以接受的。
但如果你需要對流資料進行分析,比如那些來自於工廠的感測器收集回來的資料,又或者說你的應用是需要多重資料處理的,那麼你也許更應該使用spark進行處理。
兩者的災難恢復方式迥異,但是都很不錯。因為hadoop將每次處理後的資料都寫入到磁碟上,所以其天生就能很有彈性的對系統錯誤進行處理。
spark的資料物件儲存在分布於資料集群中的叫做彈性分布式資料集(rdd: resilient distributed dataset)中。「這些資料物件既可以放在記憶體,也可以放在磁碟,所以rdd同樣也可以提供完成的災難恢復功能,」borne指出。
「6秒鐘解決你的情緒挑戰」培訓筆記
主持人 蘇靖然 講述生命的品質,學會了接納 培訓師 吳岱妮 1 小精靈給的小藥丸,可以去掉一種你不喜歡的情緒,你會選擇嗎?2 經常遇到的不喜歡的情緒有不安 壓力 無奈 憤怒 恐懼和拒絕等 而我們要學會轉化情緒 將不安轉化為信心,壓力轉化為自由,無奈轉化為掌控 憤怒轉化為平靜,恐懼轉化為信任 拒絕轉化...
看完後想10秒鐘,你會改變自己!
有一對兄弟,他們的家住在80層樓上。有一天他們外出旅行回家,發現大樓停電了!雖然他們揹著大包的行李,但看來沒有什麼別的選擇,於是哥哥對弟弟說,我們就爬樓梯上去!於是,他們揹著兩大包行李開始爬樓梯。爬到的時候他們開始累了,哥哥說 包包太重了,不如這樣吧,我們把包包放在這裡,等來電後坐電梯來拿。於是,他...
10秒鐘讓你的百度競價帳戶質量度提公升3星
經常聽到很多人抱怨帳戶的質量度很低。也有很多競價的人說不要刻意的去追求質量度,其實筆者是這麼看的。首先帳戶的綜合指數高的話,你的整體關鍵詞質量度就會很高,質量度是需要去追求的,但是不要死磕。死磕的話你會糾結,因為對於競爭大的詞是故意降低質量度的,這樣他才能更多的賺錢,而質量度直接影響你的排名 點選 ...