真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

Spark分區(qū)并行度決定機制

本篇內(nèi)容主要講解“Spark分區(qū)并行度決定機制”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“Spark分區(qū)并行度決定機制”吧!

站在用戶的角度思考問題,與客戶深入溝通,找到河?xùn)|網(wǎng)站設(shè)計與河?xùn)|網(wǎng)站推廣的解決方案,憑借多年的經(jīng)驗,讓設(shè)計與互聯(lián)網(wǎng)技術(shù)結(jié)合,創(chuàng)造個性化、用戶體驗好的作品,建站類型包括:網(wǎng)站制作、做網(wǎng)站、企業(yè)官網(wǎng)、英文網(wǎng)站、手機端網(wǎng)站、網(wǎng)站推廣、域名申請、虛擬主機、企業(yè)郵箱。業(yè)務(wù)覆蓋河?xùn)|地區(qū)。

大家都知道Spark job中最小執(zhí)行單位為task,合理設(shè)置Spark job每個stage的task數(shù)是決定性能好壞的重要因素之一,但是Spark自己確定最佳并行度的能力有限,這就要求我們在了解其中內(nèi)在機制的前提下,去各種測試、計算等來最終確定最佳參數(shù)配比。

Spark任務(wù)在執(zhí)行時會將RDD劃分為不同的stage,一個stage中task的數(shù)量跟最后一個RDD的分區(qū)數(shù)量相同。之前已經(jīng)介紹過,stage劃分的關(guān)鍵是寬依賴,而寬依賴往往伴隨著shuffle操作。對于一個stage接收另一個stage的輸入,這種操作通常都會有一個參數(shù)numPartitions來顯示指定分區(qū)數(shù)。最典型的就是一些ByKey算子,比如groupByKey(numPartitions: Int),但是這個分區(qū)數(shù)需要多次測試來確定合適的值。首先確定父RDD中的分區(qū)數(shù)(通過rdd.partitions().size()可以確定RDD的分區(qū)數(shù)),然后在此基礎(chǔ)上增加分區(qū)數(shù),多次調(diào)試直至在確定的資源任務(wù)能夠平穩(wěn)、安全的運行。  
對于沒有父RDD的RDD,比如通過加載HDFS上的數(shù)據(jù)生成的RDD,它的分區(qū)數(shù)由InputFormat切分機制決定。通常就是一個HDFS block塊對應(yīng)一個分區(qū),對于不可切分文件則一個文件對應(yīng)一個分區(qū)。  

對于通過SparkContext的parallelize方法或者makeRDD生成的RDD分區(qū)數(shù)可以直接在方法中指定,如果未指定,則參考spark.default.parallelism的參數(shù)配置。下面是默認情況下確定defaultParallelism的源碼:
override def defaultParallelism(): Int = {
    conf.getInt("spark.default.parallelism", math.max(totalCoreCount.get(), 2))
}

通常,RDD的分區(qū)數(shù)與其所依賴的RDD的分區(qū)數(shù)相同,除非shuffle。但有幾個特殊的算子:

1.coalesce和repartition算子

筆者先放兩張關(guān)于該coalesce算子分別在RDD和DataSet中的源碼圖:(DataSet是Spark SQL中的分布式數(shù)據(jù)集,后邊說到Spark時再細講)

Spark分區(qū)并行度決定機制

Spark分區(qū)并行度決定機制

通過coalesce源碼分析,無論是在RDD中還是DataSet,默認情況下coalesce不會產(chǎn)生shuffle,此時通過coalesce創(chuàng)建的RDD分區(qū)數(shù)小于等于父RDD的分區(qū)數(shù)。 

筆者這里就不放repartition算子的源碼了,分析起來也比較簡單,圖中我有所提示。但筆者建議,如下兩種情況,請使用repartition算子:

1)增加分區(qū)數(shù)
repartition觸發(fā)shuffle,shuffle的情況下可以增加分區(qū)數(shù)。

coalesce默認不觸發(fā)shuffle,即使調(diào)用該算子增加分區(qū)數(shù),實際情況是分區(qū)數(shù)仍然是當前的分區(qū)數(shù)。

2)極端情況減少分區(qū)數(shù),比如將分區(qū)數(shù)減少為1
調(diào)整分區(qū)數(shù)為1,此時數(shù)據(jù)處理上游stage并行度降,很影響性能。此時repartition的優(yōu)勢即不改變原來stage的并行度就體現(xiàn)出來了,在大數(shù)據(jù)量下,更為明顯。
但需要注意,因為repartition會觸發(fā)shuffle,而要衡量好shuffle產(chǎn)生的代價和因為用repartition增加并行度帶來的效益。

2.union算子

還是直接看源碼:

Spark分區(qū)并行度決定機制

Spark分區(qū)并行度決定機制

Spark分區(qū)并行度決定機制

通過分析源碼,RDD在調(diào)用union算子時,最終生成的RDD分區(qū)數(shù)分兩種情況:
1)union的RDD分區(qū)器已定義并且它們的分區(qū)器相同

多個父RDD具有相同的分區(qū)器,union后產(chǎn)生的RDD的分區(qū)器與父RDD相同且分區(qū)數(shù)也相同。比如,n個RDD的分區(qū)器相同且是defined,分區(qū)數(shù)是m個。那么這n個RDD最終union生成的一個RDD的分區(qū)數(shù)仍是m,分區(qū)器也是相同的

2)不滿足第一種情況,則通過union生成的RDD的分區(qū)數(shù)為父RDD的分區(qū)數(shù)之和
4.cartesian算子

通過上述coalesce、repartition、union算子介紹和源碼分析,很容易分析cartesian算子的源碼。通過cartesian得到RDD分區(qū)數(shù)是其父RDD分區(qū)數(shù)的乘積。

Spark分區(qū)并行度決定機制

在Spark SQL中,任務(wù)并行度參數(shù)則要參考spark.sql.shuffle.partitions,筆者這里先放一張圖,詳細的后面講到Spark SQL時再細說:

Spark分區(qū)并行度決定機制

看下圖在Spark流式計算中,通常將SparkStreaming和Kafka整合,這里又分兩種情況:

1.Receiver方式生成的微批RDD即BlockRDD,分區(qū)數(shù)就是block數(shù)

2.Direct方式生成的微批RDD即kafkaRDD,分區(qū)數(shù)和kafka分區(qū)數(shù)一一對應(yīng)  

到此,相信大家對“Spark分區(qū)并行度決定機制”有了更深的了解,不妨來實際操作一番吧!這里是創(chuàng)新互聯(lián)網(wǎng)站,更多相關(guān)內(nèi)容可以進入相關(guān)頻道進行查詢,關(guān)注我們,繼續(xù)學習!


名稱欄目:Spark分區(qū)并行度決定機制
URL地址:http://weahome.cn/article/pjsspj.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部