本篇內容主要講解“Hadoop和Spark集群技術有哪些區(qū)別”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“Hadoop和Spark集群技術有哪些區(qū)別”吧!
創(chuàng)新互聯(lián)不只是一家網(wǎng)站建設的網(wǎng)絡公司;我們對營銷、技術、服務都有自己獨特見解,公司采取“創(chuàng)意+綜合+營銷”一體化的方式為您提供更專業(yè)的服務!我們經(jīng)歷的每一步也許不一定是最完美的,但每一步都有值得深思的意義。我們珍視每一份信任,關注我們的成都做網(wǎng)站、網(wǎng)站制作、成都外貿網(wǎng)站建設質量和服務品質,在得到用戶滿意的同時,也能得到同行業(yè)的專業(yè)認可,能夠為行業(yè)創(chuàng)新發(fā)展助力。未來將繼續(xù)專注于技術創(chuàng)新,服務升級,滿足企業(yè)一站式營銷型網(wǎng)站需求,讓再小的成都品牌網(wǎng)站建設也能產(chǎn)生價值!解決問題的層面不一樣
首先,Hadoop和Apache Spark兩者都是大數(shù)據(jù)框架,但是各自存在的目的不盡相同。Hadoop實質上更多是一個分布式數(shù)據(jù)基礎設施: 它將巨大的數(shù)據(jù)集分派到一個由普通計算機組成的集群中的多個節(jié)點進行存儲,意味著您不需要購買和維護昂貴的服務器硬件。
同時,Hadoop還會索引和跟蹤這些數(shù)據(jù),讓大數(shù)據(jù)處理和分析效率達到前所未有的高度。Spark,則是那么一個專門用來對那些分布式存儲的大數(shù)據(jù)進行處理的工具,它并不會進行分布式數(shù)據(jù)的存儲。
兩者可合可分
Hadoop除了提供為大家所共識的HDFS分布式數(shù)據(jù)存儲功能之外,還提供了叫做MapReduce的數(shù)據(jù)處理功能。所以這里我們完全可以拋開Spark,使用Hadoop自身的MapReduce來完成數(shù)據(jù)的處理。
相反,Spark也不是非要依附在Hadoop身上才能生存。但如上所述,畢竟它沒有提供文件管理系統(tǒng),所以,它必須和其他的分布式文件系統(tǒng)進行集成才能運作。這里我們可以選擇Hadoop的HDFS,也可以選擇其他的基于云的數(shù)據(jù)系統(tǒng)平臺。但Spark默認來說還是被用在Hadoop上面的,畢竟,大家都認為它們的結合是好的。
以下是從網(wǎng)上摘錄的對MapReduce的最簡潔明了的解析:
我們要數(shù)圖書館中的所有書。你數(shù)1號書架,我數(shù)2號書架。這就是“Map”。我們人越多,數(shù)書就更快。
現(xiàn)在我們到一起,把所有人的統(tǒng)計數(shù)加在一起。這就是“Reduce”。
Spark數(shù)據(jù)處理速度秒殺MapReduce
熟悉Hadoop的人應該都知道,用戶先編寫好一個程序,我們稱為Mapreduce程序,一個Mapreduce程序就是一個Job,而一個Job里面可以有一個或多個Task,Task又可以區(qū)分為Map Task和Reduce Task,如下圖所示:
而在Spark中,也有Job概念,但是這里的Job和Mapreduce中的Job不一樣,它不是作業(yè)的高級別的粒度,在它只上還有Application的概念。
一個Application和一個SparkContext相關聯(lián),每個Application中可以有一個或多個Job,可以并行或者串行運行Job。Spark中的一個Action可以觸發(fā)一個Job的運行。在Job里面又包含了多個Stage,Stage是以Shuffle進行劃分的。在Stage中又包含了多個Task,多個Task構成了Task Set。他們之間的關系如下圖所示:
Mapreduce中的每個Task分別在自己的進程中運行,當該Task運行完的時候,該進程也就結束了。和Mapreduce不一樣的是,Spark中多個Task可以運行在一個進程里面,而且這個進程的生命周期和Application一樣,即使沒有Job在運行。
這個模型有什么好處呢?可以加快Spark的運行速度!Tasks可以快速地啟動,并且處理內存中的數(shù)據(jù)。但是這個模型有的缺點就是粗粒度的資源管理,每個Application擁有固定數(shù)量的executor和固定數(shù)量的內存。
Spark因為其處理數(shù)據(jù)的方式不一樣,會比MapReduce快上很多。MapReduce是分步對數(shù)據(jù)進行處理的: ”從集群中讀取數(shù)據(jù),進行一次處理,將結果寫到集群,從集群中讀取更新后的數(shù)據(jù),進行下一次的處理,將結果寫到集群,等等…“ Booz Allen Hamilton的數(shù)據(jù)科學家Kirk Borne如此解析。
反觀Spark,它會在內存中以接近“實時”的時間完成所有的數(shù)據(jù)分析:“從集群中讀取數(shù)據(jù),完成所有必須的分析處理,將結果寫回集群,完成,” Born說道。Spark的批處理速度比MapReduce快近10倍,內存中的數(shù)據(jù)分析速度則快近100倍。
如果需要處理的數(shù)據(jù)和結果需求大部分情況下是靜態(tài)的,且你也有耐心等待批處理的完成的話,MapReduce的處理方式也是完全可以接受的。
但如果你需要對流數(shù)據(jù)進行分析,比如那些來自于工廠的傳感器收集回來的數(shù)據(jù),又或者說你的應用是需要多重數(shù)據(jù)處理的,那么你也許更應該使用Spark進行處理。
大部分機器學習算法都是需要多重數(shù)據(jù)處理的。此外,通常會用到Spark的應用場景有以下方面:實時的市場活動,在線產(chǎn)品推薦,網(wǎng)絡安全分析,機器日記監(jiān)控等。
災難恢復
兩者的災難恢復方式迥異,但是都很不錯。因為Hadoop將每次處理后的數(shù)據(jù)都寫入到磁盤上,所以其天生就能很有彈性的對系統(tǒng)錯誤進行處理。
Spark的數(shù)據(jù)對象存儲在分布于數(shù)據(jù)集群中的叫做彈性分布式數(shù)據(jù)集(RDD: Resilient Distributed Dataset)中?!斑@些數(shù)據(jù)對象既可以放在內存,也可以放在磁盤,所以RDD同樣也可以提供完成的災難恢復功能,”Borne指出。
到此,相信大家對“Hadoop和Spark集群技術有哪些區(qū)別”有了更深的了解,不妨來實際操作一番吧!這里是創(chuàng)新互聯(lián)建站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續(xù)學習!