這篇文章主要講解了“spark作業(yè)調(diào)優(yōu)的方法是什么”,文中的講解內(nèi)容簡(jiǎn)單清晰,易于學(xué)習(xí)與理解,下面請(qǐng)大家跟著小編的思路慢慢深入,一起來(lái)研究和學(xué)習(xí)“spark作業(yè)調(diào)優(yōu)的方法是什么”吧!
我們提供的服務(wù)有:成都網(wǎng)站設(shè)計(jì)、成都網(wǎng)站制作、微信公眾號(hào)開(kāi)發(fā)、網(wǎng)站優(yōu)化、網(wǎng)站認(rèn)證、浉河ssl等。為上千家企事業(yè)單位解決了網(wǎng)站和推廣的問(wèn)題。提供周到的售前咨詢(xún)和貼心的售后服務(wù),是有科學(xué)管理、有技術(shù)的浉河網(wǎng)站制作公司
調(diào)優(yōu)概述
有的時(shí)候,我們可能會(huì)遇到大數(shù)據(jù)計(jì)算中一個(gè)最棘手的問(wèn)題——數(shù)據(jù)傾斜,此時(shí)Spark作業(yè)的性能會(huì)比期望差很多。數(shù)據(jù)傾斜調(diào)優(yōu),就是使用各種技術(shù)方案解決不同類(lèi)型的數(shù)據(jù)傾斜問(wèn)題,以保證Spark作業(yè)的性能。
數(shù)據(jù)傾斜是多么痛?!!!
如果數(shù)據(jù)傾斜沒(méi)有解決,完全沒(méi)有可能進(jìn)行性能調(diào)優(yōu),其他所有的調(diào)優(yōu)手段都是一個(gè)笑話。數(shù)據(jù)傾斜是最能體現(xiàn)一個(gè)spark大數(shù)據(jù)工程師水平的性能調(diào)優(yōu)問(wèn)題。
數(shù)據(jù)傾斜如果能夠解決的話,代表對(duì)spark運(yùn)行機(jī)制了如指掌。
數(shù)據(jù)傾斜倆大直接致命后果。
數(shù)據(jù)傾斜直接會(huì)導(dǎo)致一種情況:OOM。
運(yùn)行速度慢,特別慢,非常慢,極端的慢,不可接受的慢。
我們以100億條數(shù)據(jù)為列子。
個(gè)別Task(80億條數(shù)據(jù)的那個(gè)Task)處理過(guò)度大量數(shù)據(jù)。導(dǎo)致拖慢了整個(gè)Job的執(zhí)行時(shí)間。這可能導(dǎo)致該Task所在的機(jī)器OOM,或者運(yùn)行速度非常慢。
數(shù)據(jù)傾斜的原因:
在Shuffle階段。同樣Key的數(shù)據(jù)條數(shù)太多了。導(dǎo)致了某個(gè)key(上圖中的80億條)所在的Task數(shù)據(jù)量太大了。遠(yuǎn)遠(yuǎn)超過(guò)其他Task所處理的數(shù)據(jù)量。
而這樣的場(chǎng)景太常見(jiàn)了。二八定律可以證實(shí)這種場(chǎng)景。
搞定數(shù)據(jù)傾斜需要:
搞定shuffle
搞定業(yè)務(wù)場(chǎng)景
搞定 cpu core的使用情況
搞定OOM的根本原因等。
所以搞定了數(shù)據(jù)傾斜需要對(duì)至少以上的原理了如指掌。所以搞定數(shù)據(jù)傾斜是關(guān)鍵中的關(guān)鍵。
告訴大家一個(gè)屢試不爽的經(jīng)驗(yàn)結(jié)論:一般情況下,OOM的原因都是數(shù)據(jù)傾斜。某個(gè)task任務(wù)數(shù)據(jù)量太大,GC的壓力就很大。這比不了Kafka,因?yàn)閗afka的內(nèi)存是不經(jīng)過(guò)JVM的。是基于Linux內(nèi)核的Page。
數(shù)據(jù)傾斜發(fā)生的原理
數(shù)據(jù)傾斜的原理很簡(jiǎn)單:在進(jìn)行shuffle的時(shí)候,必須將各個(gè)節(jié)點(diǎn)上相同的key拉取到某個(gè)節(jié)點(diǎn)上的一個(gè)task來(lái)進(jìn)行處理,比如按照key進(jìn)行聚合或join等操作。此時(shí)如果某個(gè)key對(duì)應(yīng)的數(shù)據(jù)量特別大的話,就會(huì)發(fā)生數(shù)據(jù)傾斜。比如大部分key對(duì)應(yīng)10條數(shù)據(jù),但是個(gè)別key卻對(duì)應(yīng)了100萬(wàn)條數(shù)據(jù),那么大部分task可能就只會(huì)分配到10條數(shù)據(jù),然后1秒鐘就運(yùn)行完了;但是個(gè)別task可能分配到了100萬(wàn)數(shù)據(jù),要運(yùn)行一兩個(gè)小時(shí)。因此,整個(gè)Spark作業(yè)的運(yùn)行進(jìn)度是由運(yùn)行時(shí)間最長(zhǎng)的那個(gè)task決定的。
因此出現(xiàn)數(shù)據(jù)傾斜的時(shí)候,Spark作業(yè)看起來(lái)會(huì)運(yùn)行得非常緩慢,甚至可能因?yàn)槟硞€(gè)task處理的數(shù)據(jù)量過(guò)大導(dǎo)致內(nèi)存溢出。
下圖就是一個(gè)很清晰的例子:hello這個(gè)key,在三個(gè)節(jié)點(diǎn)上對(duì)應(yīng)了總共7條數(shù)據(jù),這些數(shù)據(jù)都會(huì)被拉取到同一個(gè)task中進(jìn)行處理;而world和you這兩個(gè)key分別才對(duì)應(yīng)1條數(shù)據(jù),所以另外兩個(gè)task只要分別處理1條數(shù)據(jù)即可。此時(shí)***個(gè)task的運(yùn)行時(shí)間可能是另外兩個(gè)task的7倍,而整個(gè)stage的運(yùn)行速度也由運(yùn)行最慢的那個(gè)task所決定。
如何定位導(dǎo)致數(shù)據(jù)傾斜的代碼
數(shù)據(jù)傾斜只會(huì)發(fā)生在shuffle過(guò)程中。這里給大家羅列一些常用的并且可能會(huì)觸發(fā)shuffle操作的算子:distinct、groupByKey、reduceByKey、aggregateByKey、join、cogroup、repartition等。出現(xiàn)數(shù)據(jù)傾斜時(shí),可能就是你的代碼中使用了這些算子中的某一個(gè)所導(dǎo)致的。
某個(gè)task執(zhí)行特別慢的情況
首先要看的,就是數(shù)據(jù)傾斜發(fā)生在第幾個(gè)stage中。
如果是用yarn-client模式提交,那么本地是直接可以看到log的,可以在log中找到當(dāng)前運(yùn)行到了第幾個(gè)stage;如果是用yarn-cluster模式提交,則可以通過(guò)Spark Web UI來(lái)查看當(dāng)前運(yùn)行到了第幾個(gè)stage。此外,無(wú)論是使用yarn-client模式還是yarn-cluster模式,我們都可以在Spark Web UI上深入看一下當(dāng)前這個(gè)stage各個(gè)task分配的數(shù)據(jù)量,從而進(jìn)一步確定是不是task分配的數(shù)據(jù)不均勻?qū)е铝藬?shù)據(jù)傾斜。
比如下圖中,倒數(shù)第三列顯示了每個(gè)task的運(yùn)行時(shí)間。明顯可以看到,有的task運(yùn)行特別快,只需要幾秒鐘就可以運(yùn)行完;而有的task運(yùn)行特別慢,需要幾分鐘才能運(yùn)行完,此時(shí)單從運(yùn)行時(shí)間上看就已經(jīng)能夠確定發(fā)生數(shù)據(jù)傾斜了。此外,倒數(shù)***列顯示了每個(gè)task處理的數(shù)據(jù)量,明顯可以看到,運(yùn)行時(shí)間特別短的task只需要處理幾百KB的數(shù)據(jù)即可,而運(yùn)行時(shí)間特別長(zhǎng)的task需要處理幾千KB的數(shù)據(jù),處理的數(shù)據(jù)量差了10倍。此時(shí)更加能夠確定是發(fā)生了數(shù)據(jù)傾斜。
知道數(shù)據(jù)傾斜發(fā)生在哪一個(gè)stage之后,接著我們就需要根據(jù)stage劃分原理,推算出來(lái)發(fā)生傾斜的那個(gè)stage對(duì)應(yīng)代碼中的哪一部分,這部分代碼中肯定會(huì)有一個(gè)shuffle類(lèi)算子。精準(zhǔn)推算stage與代碼的對(duì)應(yīng)關(guān)系,需要對(duì)Spark的源碼有深入的理解,這里我們可以介紹一個(gè)相對(duì)簡(jiǎn)單實(shí)用的推算方法:只要看到Spark代碼中出現(xiàn)了一個(gè)shuffle類(lèi)算子或者是Spark SQL的SQL語(yǔ)句中出現(xiàn)了會(huì)導(dǎo)致shuffle的語(yǔ)句(比如group by語(yǔ)句),那么就可以判定,以那個(gè)地方為界限劃分出了前后兩個(gè)stage。
這里我們就以Spark最基礎(chǔ)的入門(mén)程序——單詞計(jì)數(shù)來(lái)舉例,如何用最簡(jiǎn)單的方法大致推算出一個(gè)stage對(duì)應(yīng)的代碼。如下示例,在整個(gè)代碼中,只有一個(gè)reduceByKey是會(huì)發(fā)生shuffle的算子,因此就可以認(rèn)為,以這個(gè)算子為界限,會(huì)劃分出前后兩個(gè)stage。
1、stage0,主要是執(zhí)行從textFile到map操作,以及執(zhí)行shuffle write操作。shuffle write操作,我們可以簡(jiǎn)單理解為對(duì)pairs RDD中的數(shù)據(jù)進(jìn)行分區(qū)操作,每個(gè)task處理的數(shù)據(jù)中,相同的key會(huì)寫(xiě)入同一個(gè)磁盤(pán)文件內(nèi)。
2、stage1,主要是執(zhí)行從reduceByKey到collect操作,stage1的各個(gè)task一開(kāi)始運(yùn)行,就會(huì)首先執(zhí)行shuffle read操作。執(zhí)行shuffle read操作的task,會(huì)從stage0的各個(gè)task所在節(jié)點(diǎn)拉取屬于自己處理的那些key,然后對(duì)同一個(gè)key進(jìn)行全局性的聚合或join等操作,在這里就是對(duì)key的value值進(jìn)行累加。stage1在執(zhí)行完reduceByKey算子之后,就計(jì)算出了最終的wordCounts RDD,然后會(huì)執(zhí)行collect算子,將所有數(shù)據(jù)拉取到Driver上,供我們遍歷和打印輸出。
通過(guò)對(duì)單詞計(jì)數(shù)程序的分析,希望能夠讓大家了解最基本的stage劃分的原理,以及stage劃分后shuffle操作是如何在兩個(gè)stage的邊界處執(zhí)行的。然后我們就知道如何快速定位出發(fā)生數(shù)據(jù)傾斜的stage對(duì)應(yīng)代碼的哪一個(gè)部分了。比如我們?cè)赟park Web UI或者本地log中發(fā)現(xiàn),stage1的某幾個(gè)task執(zhí)行得特別慢,判定stage1出現(xiàn)了數(shù)據(jù)傾斜,那么就可以回到代碼中定位出stage1主要包括了reduceByKey這個(gè)shuffle類(lèi)算子,此時(shí)基本就可以確定是由educeByKey算子導(dǎo)致的數(shù)據(jù)傾斜問(wèn)題。比如某個(gè)單詞出現(xiàn)了100萬(wàn)次,其他單詞才出現(xiàn)10次,那么stage1的某個(gè)task就要處理100萬(wàn)數(shù)據(jù),整個(gè)stage的速度就會(huì)被這個(gè)task拖慢。
數(shù)據(jù)傾斜的解決方案
解決方案一:使用Hive ETL預(yù)處理數(shù)據(jù)
方案適用場(chǎng)景:導(dǎo)致數(shù)據(jù)傾斜的是Hive表。如果該Hive表中的數(shù)據(jù)本身很不均勻(比如某個(gè)key對(duì)應(yīng)了100萬(wàn)數(shù)據(jù),其他key才對(duì)應(yīng)了10條數(shù)據(jù)),而且業(yè)務(wù)場(chǎng)景需要頻繁使用Spark對(duì)Hive表執(zhí)行某個(gè)分析操作,那么比較適合使用這種技術(shù)方案。
方案實(shí)現(xiàn)思路:此時(shí)可以評(píng)估一下,是否可以通過(guò)Hive來(lái)進(jìn)行數(shù)據(jù)預(yù)處理(即通過(guò)Hive ETL預(yù)先對(duì)數(shù)據(jù)按照key進(jìn)行聚合,或者是預(yù)先和其他表進(jìn)行join),然后在Spark作業(yè)中針對(duì)的數(shù)據(jù)源就不是原來(lái)的Hive表了,而是預(yù)處理后的Hive表。此時(shí)由于數(shù)據(jù)已經(jīng)預(yù)先進(jìn)行過(guò)聚合或join操作了,那么在Spark作業(yè)中也就不需要使用原先的shuffle類(lèi)算子執(zhí)行這類(lèi)操作了。
方案實(shí)現(xiàn)原理:這種方案從根源上解決了數(shù)據(jù)傾斜,因?yàn)閺氐妆苊饬嗽赟park中執(zhí)行shuffle類(lèi)算子,那么肯定就不會(huì)有數(shù)據(jù)傾斜的問(wèn)題了。但是這里也要提醒一下大家,這種方式屬于治標(biāo)不治本。因?yàn)楫吘箶?shù)據(jù)本身就存在分布不均勻的問(wèn)題,所以Hive ETL中進(jìn)行g(shù)roup by或者join等shuffle操作時(shí),還是會(huì)出現(xiàn)數(shù)據(jù)傾斜,導(dǎo)致Hive ETL的速度很慢。我們只是把數(shù)據(jù)傾斜的發(fā)生提前到了Hive ETL中,避免Spark程序發(fā)生數(shù)據(jù)傾斜而已。
方案優(yōu)點(diǎn):實(shí)現(xiàn)起來(lái)簡(jiǎn)單便捷,效果還非常好,完全規(guī)避掉了數(shù)據(jù)傾斜,Spark作業(yè)的性能會(huì)大幅度提升。
方案缺點(diǎn):治標(biāo)不治本,Hive ETL中還是會(huì)發(fā)生數(shù)據(jù)傾斜。
方案實(shí)踐經(jīng)驗(yàn):在一些Java系統(tǒng)與Spark結(jié)合使用的項(xiàng)目中,會(huì)出現(xiàn)Java代碼頻繁調(diào)用Spark作業(yè)的場(chǎng)景,而且對(duì)Spark作業(yè)的執(zhí)行性能要求很高,就比較適合使用這種方案。將數(shù)據(jù)傾斜提前到上游的Hive ETL,每天僅執(zhí)行一次,只有那一次是比較慢的,而之后每次Java調(diào)用Spark作業(yè)時(shí),執(zhí)行速度都會(huì)很快,能夠提供更好的用戶(hù)體驗(yàn)。
項(xiàng)目實(shí)踐經(jīng)驗(yàn):在美團(tuán)·點(diǎn)評(píng)的交互式用戶(hù)行為分析系統(tǒng)中使用了這種方案,該系統(tǒng)主要是允許用戶(hù)通過(guò)Java Web系統(tǒng)提交數(shù)據(jù)分析統(tǒng)計(jì)任務(wù),后端通過(guò)Java提交Spark作業(yè)進(jìn)行數(shù)據(jù)分析統(tǒng)計(jì)。要求Spark作業(yè)速度必須要快,盡量在10分鐘以?xún)?nèi),否則速度太慢,用戶(hù)體驗(yàn)會(huì)很差。所以我們將有些Spark作業(yè)的shuffle操作提前到了Hive ETL中,從而讓Spark直接使用預(yù)處理的Hive中間表,盡可能地減少Spark的shuffle操作,大幅度提升了性能,將部分作業(yè)的性能提升了6倍以上。
解決方案二:過(guò)濾少數(shù)導(dǎo)致傾斜的key
方案適用場(chǎng)景:如果發(fā)現(xiàn)導(dǎo)致傾斜的key就少數(shù)幾個(gè),而且對(duì)計(jì)算本身的影響并不大的話,那么很適合使用這種方案。比如99%的key就對(duì)應(yīng)10條數(shù)據(jù),但是只有一個(gè)key對(duì)應(yīng)了100萬(wàn)數(shù)據(jù),從而導(dǎo)致了數(shù)據(jù)傾斜。
方案實(shí)現(xiàn)思路:如果我們判斷那少數(shù)幾個(gè)數(shù)據(jù)量特別多的key,對(duì)作業(yè)的執(zhí)行和計(jì)算結(jié)果不是特別重要的話,那么干脆就直接過(guò)濾掉那少數(shù)幾個(gè)key。比如,在Spark SQL中可以使用where子句過(guò)濾掉這些key或者在Spark Core中對(duì)RDD執(zhí)行filter算子過(guò)濾掉這些key。如果需要每次作業(yè)執(zhí)行時(shí),動(dòng)態(tài)判定哪些key的數(shù)據(jù)量最多然后再進(jìn)行過(guò)濾,那么可以使用sample算子對(duì)RDD進(jìn)行采樣,然后計(jì)算出每個(gè)key的數(shù)量,取數(shù)據(jù)量最多的key過(guò)濾掉即可。
方案實(shí)現(xiàn)原理:將導(dǎo)致數(shù)據(jù)傾斜的key給過(guò)濾掉之后,這些key就不會(huì)參與計(jì)算了,自然不可能產(chǎn)生數(shù)據(jù)傾斜。
方案優(yōu)點(diǎn):實(shí)現(xiàn)簡(jiǎn)單,而且效果也很好,可以完全規(guī)避掉數(shù)據(jù)傾斜。
方案缺點(diǎn):適用場(chǎng)景不多,大多數(shù)情況下,導(dǎo)致傾斜的key還是很多的,并不是只有少數(shù)幾個(gè)。
方案實(shí)踐經(jīng)驗(yàn):在項(xiàng)目中我們也采用過(guò)這種方案解決數(shù)據(jù)傾斜。有一次發(fā)現(xiàn)某一天Spark作業(yè)在運(yùn)行的時(shí)候突然OOM了,追查之后發(fā)現(xiàn),是Hive表中的某一個(gè)key在那天數(shù)據(jù)異常,導(dǎo)致數(shù)據(jù)量暴增。因此就采取每次執(zhí)行前先進(jìn)行采樣,計(jì)算出樣本中數(shù)據(jù)量***的幾個(gè)key之后,直接在程序中將那些key給過(guò)濾掉。
解決方案三:提高shuffle操作的并行度
方案適用場(chǎng)景:如果我們必須要對(duì)數(shù)據(jù)傾斜迎難而上,那么建議優(yōu)先使用這種方案,因?yàn)檫@是處理數(shù)據(jù)傾斜最簡(jiǎn)單的一種方案。
方案實(shí)現(xiàn)思路:在對(duì)RDD執(zhí)行shuffle算子時(shí),給shuffle算子傳入一個(gè)參數(shù),比如reduceByKey(1000),該參數(shù)就設(shè)置了這個(gè)shuffle算子執(zhí)行時(shí)shuffle read task的數(shù)量。對(duì)于Spark SQL中的shuffle類(lèi)語(yǔ)句,比如group by、join等,需要設(shè)置一個(gè)參數(shù),即spark.sql.shuffle.partitions,該參數(shù)代表了shuffle read task的并行度,該值默認(rèn)是200,對(duì)于很多場(chǎng)景來(lái)說(shuō)都有點(diǎn)過(guò)小。
方案實(shí)現(xiàn)原理:增加shuffle read task的數(shù)量,可以讓原本分配給一個(gè)task的多個(gè)key分配給多個(gè)task,從而讓每個(gè)task處理比原來(lái)更少的數(shù)據(jù)。舉例來(lái)說(shuō),如果原本有5個(gè)key,每個(gè)key對(duì)應(yīng)10條數(shù)據(jù),這5個(gè)key都是分配給一個(gè)task的,那么這個(gè)task就要處理50條數(shù)據(jù)。而增加了shuffle read task以后,每個(gè)task就分配到一個(gè)key,即每個(gè)task就處理10條數(shù)據(jù),那么自然每個(gè)task的執(zhí)行時(shí)間都會(huì)變短了。具體原理如下圖所示。
方案優(yōu)點(diǎn):實(shí)現(xiàn)起來(lái)比較簡(jiǎn)單,可以有效緩解和減輕數(shù)據(jù)傾斜的影響。
方案缺點(diǎn):只是緩解了數(shù)據(jù)傾斜而已,沒(méi)有徹底根除問(wèn)題,根據(jù)實(shí)踐經(jīng)驗(yàn)來(lái)看,其效果有限。
方案實(shí)踐經(jīng)驗(yàn):該方案通常無(wú)法徹底解決數(shù)據(jù)傾斜,因?yàn)槿绻霈F(xiàn)一些極端情況,比如某個(gè)key對(duì)應(yīng)的數(shù)據(jù)量有100萬(wàn),那么無(wú)論你的task數(shù)量增加到多少,這個(gè)對(duì)應(yīng)著100萬(wàn)數(shù)據(jù)的key肯定還是會(huì)分配到一個(gè)task中去處理,因此注定還是會(huì)發(fā)生數(shù)據(jù)傾斜的。所以這種方案只能說(shuō)是在發(fā)現(xiàn)數(shù)據(jù)傾斜時(shí)嘗試使用的***種手段,嘗試去用嘴簡(jiǎn)單的方法緩解數(shù)據(jù)傾斜而已,或者是和其他方案結(jié)合起來(lái)使用。
解決方案四:兩階段聚合(局部聚合+全局聚合)
方案適用場(chǎng)景:對(duì)RDD執(zhí)行reduceByKey等聚合類(lèi)shuffle算子或者在Spark SQL中使用group by語(yǔ)句進(jìn)行分組聚合時(shí),比較適用這種方案。
方案實(shí)現(xiàn)思路:這個(gè)方案的核心實(shí)現(xiàn)思路就是進(jìn)行兩階段聚合。***次是局部聚合,先給每個(gè)key都打上一個(gè)隨機(jī)數(shù),比如10以?xún)?nèi)的隨機(jī)數(shù),此時(shí)原先一樣的key就變成不一樣的了,比如(hello, 1) (hello, 1) (hello, 1) (hello, 1),就會(huì)變成(1_hello, 1) (1_hello, 1) (2_hello, 1) (2_hello, 1)。接著對(duì)打上隨機(jī)數(shù)后的數(shù)據(jù),執(zhí)行reduceByKey等聚合操作,進(jìn)行局部聚合,那么局部聚合結(jié)果,就會(huì)變成了(1_hello, 2) (2_hello, 2)。然后將各個(gè)key的前綴給去掉,就會(huì)變成(hello,2)(hello,2),再次進(jìn)行全局聚合操作,就可以得到最終結(jié)果了,比如(hello, 4)。
方案實(shí)現(xiàn)原理:將原本相同的key通過(guò)附加隨機(jī)前綴的方式,變成多個(gè)不同的key,就可以讓原本被一個(gè)task處理的數(shù)據(jù)分散到多個(gè)task上去做局部聚合,進(jìn)而解決單個(gè)task處理數(shù)據(jù)量過(guò)多的問(wèn)題。接著去除掉隨機(jī)前綴,再次進(jìn)行全局聚合,就可以得到最終的結(jié)果。具體原理見(jiàn)下圖。
方案優(yōu)點(diǎn):對(duì)于聚合類(lèi)的shuffle操作導(dǎo)致的數(shù)據(jù)傾斜,效果是非常不錯(cuò)的。通常都可以解決掉數(shù)據(jù)傾斜,或者至少是大幅度緩解數(shù)據(jù)傾斜,將Spark作業(yè)的性能提升數(shù)倍以上。
方案缺點(diǎn):僅僅適用于聚合類(lèi)的shuffle操作,適用范圍相對(duì)較窄。如果是join類(lèi)的shuffle操作,還得用其他的解決方案。
解決方案五:將reduce join轉(zhuǎn)為map join
方案適用場(chǎng)景:在對(duì)RDD使用join類(lèi)操作,或者是在Spark SQL中使用join語(yǔ)句時(shí),而且join操作中的一個(gè)RDD或表的數(shù)據(jù)量比較小(比如幾百M(fèi)或者一兩G),比較適用此方案。
方案實(shí)現(xiàn)思路:不使用join算子進(jìn)行連接操作,而使用Broadcast變量與map類(lèi)算子實(shí)現(xiàn)join操作,進(jìn)而完全規(guī)避掉shuffle類(lèi)的操作,徹底避免數(shù)據(jù)傾斜的發(fā)生和出現(xiàn)。將較小RDD中的數(shù)據(jù)直接通過(guò)collect算子拉取到Driver端的內(nèi)存中來(lái),然后對(duì)其創(chuàng)建一個(gè)Broadcast變量;接著對(duì)另外一個(gè)RDD執(zhí)行map類(lèi)算子,在算子函數(shù)內(nèi),從Broadcast變量中獲取較小RDD的全量數(shù)據(jù),與當(dāng)前RDD的每一條數(shù)據(jù)按照連接key進(jìn)行比對(duì),如果連接key相同的話,那么就將兩個(gè)RDD的數(shù)據(jù)用你需要的方式連接起來(lái)。
方案實(shí)現(xiàn)原理:普通的join是會(huì)走shuffle過(guò)程的,而一旦shuffle,就相當(dāng)于會(huì)將相同key的數(shù)據(jù)拉取到一個(gè)shuffle read task中再進(jìn)行join,此時(shí)就是reduce join。但是如果一個(gè)RDD是比較小的,則可以采用廣播小RDD全量數(shù)據(jù)+map算子來(lái)實(shí)現(xiàn)與join同樣的效果,也就是map join,此時(shí)就不會(huì)發(fā)生shuffle操作,也就不會(huì)發(fā)生數(shù)據(jù)傾斜。具體原理如下圖所示。
方案優(yōu)點(diǎn):對(duì)join操作導(dǎo)致的數(shù)據(jù)傾斜,效果非常好,因?yàn)楦揪筒粫?huì)發(fā)生shuffle,也就根本不會(huì)發(fā)生數(shù)據(jù)傾斜。
方案缺點(diǎn):適用場(chǎng)景較少,因?yàn)檫@個(gè)方案只適用于一個(gè)大表和一個(gè)小表的情況。畢竟我們需要將小表進(jìn)行廣播,此時(shí)會(huì)比較消耗內(nèi)存資源,driver和每個(gè)Executor內(nèi)存中都會(huì)駐留一份小RDD的全量數(shù)據(jù)。如果我們廣播出去的RDD數(shù)據(jù)比較大,比如10G以上,那么就可能發(fā)生內(nèi)存溢出了。因此并不適合兩個(gè)都是大表的情況。
解決方案六:采樣傾斜key并分拆join操作
方案適用場(chǎng)景:兩個(gè)RDD/Hive表進(jìn)行join的時(shí)候,如果數(shù)據(jù)量都比較大,無(wú)法采用“解決方案五”,那么此時(shí)可以看一下兩個(gè)RDD/Hive表中的key分布情況。如果出現(xiàn)數(shù)據(jù)傾斜,是因?yàn)槠渲心骋粋€(gè)RDD/Hive表中的少數(shù)幾個(gè)key的數(shù)據(jù)量過(guò)大,而另一個(gè)RDD/Hive表中的所有key都分布比較均勻,那么采用這個(gè)解決方案是比較合適的。
方案實(shí)現(xiàn)思路:
對(duì)包含少數(shù)幾個(gè)數(shù)據(jù)量過(guò)大的key的那個(gè)RDD,通過(guò)sample算子采樣出一份樣本來(lái),然后統(tǒng)計(jì)一下每個(gè)key的數(shù)量,計(jì)算出來(lái)數(shù)據(jù)量***的是哪幾個(gè)key。
然后將這幾個(gè)key對(duì)應(yīng)的數(shù)據(jù)從原來(lái)的RDD中拆分出來(lái),形成一個(gè)單獨(dú)的RDD,并給每個(gè)key都打上n以?xún)?nèi)的隨機(jī)數(shù)作為前綴,而不會(huì)導(dǎo)致傾斜的大部分key形成另外一個(gè)RDD。
接著將需要join的另一個(gè)RDD,也過(guò)濾出來(lái)那幾個(gè)傾斜key對(duì)應(yīng)的數(shù)據(jù)并形成一個(gè)單獨(dú)的RDD,將每條數(shù)據(jù)膨脹成n條數(shù)據(jù),這n條數(shù)據(jù)都按順序附加一個(gè)0~n的前綴,不會(huì)導(dǎo)致傾斜的大部分key也形成另外一個(gè)RDD。
再將附加了隨機(jī)前綴的獨(dú)立RDD與另一個(gè)膨脹n倍的獨(dú)立RDD進(jìn)行join,此時(shí)就可以將原先相同的key打散成n份,分散到多個(gè)task中去進(jìn)行join了。
而另外兩個(gè)普通的RDD就照常join即可。
***將兩次join的結(jié)果使用union算子合并起來(lái)即可,就是最終的join結(jié)果。
方案實(shí)現(xiàn)原理:對(duì)于join導(dǎo)致的數(shù)據(jù)傾斜,如果只是某幾個(gè)key導(dǎo)致了傾斜,可以將少數(shù)幾個(gè)key分拆成獨(dú)立RDD,并附加隨機(jī)前綴打散成n份去進(jìn)行join,此時(shí)這幾個(gè)key對(duì)應(yīng)的數(shù)據(jù)就不會(huì)集中在少數(shù)幾個(gè)task上,而是分散到多個(gè)task進(jìn)行join了。具體原理見(jiàn)下圖。
方案優(yōu)點(diǎn):對(duì)于join導(dǎo)致的數(shù)據(jù)傾斜,如果只是某幾個(gè)key導(dǎo)致了傾斜,采用該方式可以用最有效的方式打散key進(jìn)行join。而且只需要針對(duì)少數(shù)傾斜key對(duì)應(yīng)的數(shù)據(jù)進(jìn)行擴(kuò)容n倍,不需要對(duì)全量數(shù)據(jù)進(jìn)行擴(kuò)容。避免了占用過(guò)多內(nèi)存。
方案缺點(diǎn):如果導(dǎo)致傾斜的key特別多的話,比如成千上萬(wàn)個(gè)key都導(dǎo)致數(shù)據(jù)傾斜,那么這種方式也不適合。
解決方案七:使用隨機(jī)前綴和擴(kuò)容RDD進(jìn)行join
方案適用場(chǎng)景:如果在進(jìn)行join操作時(shí),RDD中有大量的key導(dǎo)致數(shù)據(jù)傾斜,那么進(jìn)行分拆key也沒(méi)什么意義,此時(shí)就只能使用***一種方案來(lái)解決問(wèn)題了。
方案實(shí)現(xiàn)思路:
該方案的實(shí)現(xiàn)思路基本和“解決方案六”類(lèi)似,首先查看RDD/Hive表中的數(shù)據(jù)分布情況,找到那個(gè)造成數(shù)據(jù)傾斜的RDD/Hive表,比如有多個(gè)key都對(duì)應(yīng)了超過(guò)1萬(wàn)條數(shù)據(jù)。
然后將該RDD的每條數(shù)據(jù)都打上一個(gè)n以?xún)?nèi)的隨機(jī)前綴。
同時(shí)對(duì)另外一個(gè)正常的RDD進(jìn)行擴(kuò)容,將每條數(shù)據(jù)都擴(kuò)容成n條數(shù)據(jù),擴(kuò)容出來(lái)的每條數(shù)據(jù)都依次打上一個(gè)0~n的前綴。
***將兩個(gè)處理后的RDD進(jìn)行join即可。
方案實(shí)現(xiàn)原理:將原先一樣的key通過(guò)附加隨機(jī)前綴變成不一樣的key,然后就可以將這些處理后的“不同key”分散到多個(gè)task中去處理,而不是讓一個(gè)task處理大量的相同key。該方案與“解決方案六”的不同之處就在于,上一種方案是盡量只對(duì)少數(shù)傾斜key對(duì)應(yīng)的數(shù)據(jù)進(jìn)行特殊處理,由于處理過(guò)程需要擴(kuò)容RDD,因此上一種方案擴(kuò)容RDD后對(duì)內(nèi)存的占用并不大;而這一種方案是針對(duì)有大量?jī)A斜key的情況,沒(méi)法將部分key拆分出來(lái)進(jìn)行單獨(dú)處理,因此只能對(duì)整個(gè)RDD進(jìn)行數(shù)據(jù)擴(kuò)容,對(duì)內(nèi)存資源要求很高。
方案優(yōu)點(diǎn):對(duì)join類(lèi)型的數(shù)據(jù)傾斜基本都可以處理,而且效果也相對(duì)比較顯著,性能提升效果非常不錯(cuò)。
方案缺點(diǎn):該方案更多的是緩解數(shù)據(jù)傾斜,而不是徹底避免數(shù)據(jù)傾斜。而且需要對(duì)整個(gè)RDD進(jìn)行擴(kuò)容,對(duì)內(nèi)存資源要求很高。
方案實(shí)踐經(jīng)驗(yàn):曾經(jīng)開(kāi)發(fā)一個(gè)數(shù)據(jù)需求的時(shí)候,發(fā)現(xiàn)一個(gè)join導(dǎo)致了數(shù)據(jù)傾斜。優(yōu)化之前,作業(yè)的執(zhí)行時(shí)間大約是60分鐘左右;使用該方案優(yōu)化之后,執(zhí)行時(shí)間縮短到10分鐘左右,性能提升了6倍。
解決方案八:多種方案組合使用
在實(shí)踐中發(fā)現(xiàn),很多情況下,如果只是處理較為簡(jiǎn)單的數(shù)據(jù)傾斜場(chǎng)景,那么使用上述方案中的某一種基本就可以解決。但是如果要處理一個(gè)較為復(fù)雜的數(shù)據(jù)傾斜場(chǎng)景,那么可能需要將多種方案組合起來(lái)使用。比如說(shuō),我們針對(duì)出現(xiàn)了多個(gè)數(shù)據(jù)傾斜環(huán)節(jié)的Spark作業(yè),可以先運(yùn)用解決方案一和二,預(yù)處理一部分?jǐn)?shù)據(jù),并過(guò)濾一部分?jǐn)?shù)據(jù)來(lái)緩解;其次可以對(duì)某些shuffle操作提升并行度,優(yōu)化其性能;***還可以針對(duì)不同的聚合或join操作,選擇一種方案來(lái)優(yōu)化其性能。大家需要對(duì)這些方案的思路和原理都透徹理解之后,在實(shí)踐中根據(jù)各種不同的情況,靈活運(yùn)用多種方案,來(lái)解決自己的數(shù)據(jù)傾斜問(wèn)題。
感謝各位的閱讀,以上就是“spark作業(yè)調(diào)優(yōu)的方法是什么”的內(nèi)容了,經(jīng)過(guò)本文的學(xué)習(xí)后,相信大家對(duì)spark作業(yè)調(diào)優(yōu)的方法是什么這一問(wèn)題有了更深刻的體會(huì),具體使用情況還需要大家實(shí)踐驗(yàn)證。這里是創(chuàng)新互聯(lián),小編將為大家推送更多相關(guān)知識(shí)點(diǎn)的文章,歡迎關(guān)注!