本篇內(nèi)容主要講解“YARN和MapReduce的內(nèi)存優(yōu)化怎么配置”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“YARN和MapReduce的內(nèi)存優(yōu)化怎么配置”吧!
目前創(chuàng)新互聯(lián)已為數(shù)千家的企業(yè)提供了網(wǎng)站建設(shè)、域名、雅安服務(wù)器托管、網(wǎng)站托管、企業(yè)網(wǎng)站設(shè)計、銅官網(wǎng)站維護等服務(wù),公司將堅持客戶導(dǎo)向、應(yīng)用為本的策略,正道將秉承"和諧、參與、激情"的文化,與客戶和合作伙伴齊心協(xié)力一起成長,共同發(fā)展。在Hadoop2.x中, YARN負責管理MapReduce中的資源(內(nèi)存, CPU等)并且將其打包成Container。
使之專注于其擅長的數(shù)據(jù)處理任務(wù), 將無需考慮資源調(diào)度. 如下圖所示
YARN會管理集群中所有機器的可用計算資源. 基于這些資源YARN會調(diào)度應(yīng)用(比如MapReduce)發(fā)來的資源請求, 然后YARN會通過分配Co
ntainer來給每個應(yīng)用提供處理能力, Container是YARN中處理能力的基本單元, 是對內(nèi)存, CPU等的封裝.
目前我這里的服務(wù)器情況:6臺slave,每臺:32G內(nèi)存,2*6核CPU。
由于hadoop 1.x存在JobTracker和TaskTracker,資源管理有它們實現(xiàn),在執(zhí)行mapreduce作業(yè)時,資源分為map task和reduce task。
所有存在下面兩個參數(shù)分別設(shè)置每個TaskTracker可以運行的任務(wù)數(shù):
但是在hadoop 2.x中,引入了Yarn架構(gòu)做資源管理,在每個節(jié)點上面運行NodeManager負責節(jié)點資源的分配,而slot也不再像1.x那樣區(qū)分Map slot和Reduce slot。在Yarn上面Container是資源的分配的最小單元。
Yarn集群的內(nèi)存分配配置在yarn-site.xml文件中配置:
由于我Yarn集群還需要跑Spark的任務(wù),而Spark的Worker內(nèi)存相對需要大些,所以需要調(diào)大單個任務(wù)的大內(nèi)存(默認為8G)。
而Mapreduce的任務(wù)的內(nèi)存配置:
mapreduce.map.memory.mb:每個map任務(wù)的內(nèi)存,應(yīng)該是大于或者等于Container的最小內(nèi)存。
按照上面的配置:每個slave可以運行map的數(shù)據(jù)<= 22528/1500,reduce任務(wù)的數(shù)量<=22528/3000 。
mapreduce.map.memory.mb >mapreduce.map.java.opts
mapreduce.reduce.memory.mb >mapreduce.reduce.java.opts
mapreduce.map.java.opts / mapreduce.map.memory.mb
=0.70~0.80
mapreduce.reduce.java.opts / mapreduce.reduce.memory.mb
=0.70~0.80
在yarn container這種模式下,JVM進程跑在container中,mapreduce.{map|reduce}.java.opts 能夠通過Xmx設(shè)置JVM大的heap的使用,
一般設(shè)置為0.75倍的memory.mb,
則預(yù)留些空間會存儲java,scala code等。
到此,相信大家對“YARN和MapReduce的內(nèi)存優(yōu)化怎么配置”有了更深的了解,不妨來實際操作一番吧!這里是創(chuàng)新互聯(lián)網(wǎng)站,更多相關(guān)內(nèi)容可以進入相關(guān)頻道進行查詢,關(guān)注我們,繼續(xù)學習!