本篇內(nèi)容主要講解“YARN和MapReduce的內(nèi)存優(yōu)化怎么配置”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“YARN和MapReduce的內(nèi)存優(yōu)化怎么配置”吧!
創(chuàng)新互聯(lián)建站服務項目包括澗西網(wǎng)站建設、澗西網(wǎng)站制作、澗西網(wǎng)頁制作以及澗西網(wǎng)絡營銷策劃等。多年來,我們專注于互聯(lián)網(wǎng)行業(yè),利用自身積累的技術(shù)優(yōu)勢、行業(yè)經(jīng)驗、深度合作伙伴關(guān)系等,向廣大中小型企業(yè)、政府機構(gòu)等提供互聯(lián)網(wǎng)行業(yè)的解決方案,澗西網(wǎng)站推廣取得了明顯的社會效益與經(jīng)濟效益。目前,我們服務的客戶以成都為中心已經(jīng)輻射到澗西省份的部分城市,未來相信會繼續(xù)擴大服務區(qū)域并繼續(xù)獲得客戶的支持與信任!
在Hadoop2.x中, YARN負責管理MapReduce中的資源(內(nèi)存, CPU等)并且將其打包成Container。
使之專注于其擅長的數(shù)據(jù)處理任務, 將無需考慮資源調(diào)度. 如下圖所示
YARN會管理集群中所有機器的可用計算資源. 基于這些資源YARN會調(diào)度應用(比如MapReduce)發(fā)來的資源請求, 然后YARN會通過分配Co
ntainer來給每個應用提供處理能力, Container是YARN中處理能力的基本單元, 是對內(nèi)存, CPU等的封裝.
目前我這里的服務器情況:6臺slave,每臺:32G內(nèi)存,2*6核CPU。
由于hadoop 1.x存在JobTracker和TaskTracker,資源管理有它們實現(xiàn),在執(zhí)行mapreduce作業(yè)時,資源分為map task和reduce task。
所有存在下面兩個參數(shù)分別設置每個TaskTracker可以運行的任務數(shù):
但是在hadoop 2.x中,引入了Yarn架構(gòu)做資源管理,在每個節(jié)點上面運行NodeManager負責節(jié)點資源的分配,而slot也不再像1.x那樣區(qū)分Map slot和Reduce slot。在Yarn上面Container是資源的分配的最小單元。
Yarn集群的內(nèi)存分配配置在yarn-site.xml文件中配置:
由于我Yarn集群還需要跑Spark的任務,而Spark的Worker內(nèi)存相對需要大些,所以需要調(diào)大單個任務的最大內(nèi)存(默認為8G)。
而Mapreduce的任務的內(nèi)存配置:
mapreduce.map.memory.mb:每個map任務的內(nèi)存,應該是大于或者等于Container的最小內(nèi)存。
按照上面的配置:每個slave可以運行map的數(shù)據(jù)<= 22528/1500,reduce任務的數(shù)量<=22528/3000 。
mapreduce.map.memory.mb >mapreduce.map.java.opts
mapreduce.reduce.memory.mb >mapreduce.reduce.java.opts
mapreduce.map.java.opts / mapreduce.map.memory.mb
=0.70~0.80
mapreduce.reduce.java.opts / mapreduce.reduce.memory.mb
=0.70~0.80
在yarn container這種模式下,JVM進程跑在container中,mapreduce.{map|reduce}.java.opts 能夠通過Xmx設置JVM最大的heap的使用,
一般設置為0.75倍的memory.mb,
則預留些空間會存儲java,scala code等。
到此,相信大家對“YARN和MapReduce的內(nèi)存優(yōu)化怎么配置”有了更深的了解,不妨來實際操作一番吧!這里是創(chuàng)新互聯(lián)網(wǎng)站,更多相關(guān)內(nèi)容可以進入相關(guān)頻道進行查詢,關(guān)注我們,繼續(xù)學習!