真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

怎么在Yarn集群中分配Container

本篇內(nèi)容介紹了“怎么在Yarn集群中分配Container”的有關(guān)知識(shí),在實(shí)際案例的操作過(guò)程中,不少人都會(huì)遇到這樣的困境,接下來(lái)就讓小編帶領(lǐng)大家學(xué)習(xí)一下如何處理這些情況吧!希望大家仔細(xì)閱讀,能夠?qū)W有所成!

成都創(chuàng)新互聯(lián)公司專(zhuān)注于企業(yè)成都全網(wǎng)營(yíng)銷(xiāo)、網(wǎng)站重做改版、集美網(wǎng)站定制設(shè)計(jì)、自適應(yīng)品牌網(wǎng)站建設(shè)、H5頁(yè)面制作商城網(wǎng)站制作、集團(tuán)公司官網(wǎng)建設(shè)、成都外貿(mào)網(wǎng)站建設(shè)、高端網(wǎng)站制作、響應(yīng)式網(wǎng)頁(yè)設(shè)計(jì)等建站業(yè)務(wù),價(jià)格優(yōu)惠性價(jià)比高,為集美等各大城市提供網(wǎng)站開(kāi)發(fā)制作服務(wù)。

YarnAllocator從字面意思來(lái)看,也應(yīng)該知道是在Yarn集群中分配Container的。

private[yarn] class YarnAllocator(
    driverUrl: String,
    driverRef: RpcEndpointRef,
    conf: YarnConfiguration,
    sparkConf: SparkConf,
    amClient: AMRMClient[ContainerRequest],
    appAttemptId: ApplicationAttemptId,
    securityMgr: SecurityManager,
    localResources: Map[String, LocalResource],
    resolver: SparkRackResolver,
    clock: Clock = new SystemClock)

其中driverUrl就是Driver的地址。當(dāng)用YarnAllocator分配Container來(lái)運(yùn)行Executors時(shí),這些Executors要聯(lián)系的Driver地址就是構(gòu)造函數(shù)里的driverRef參數(shù)。

requestTotalExecutorsWithPreferredLocalities方法是分配多個(gè)Executor的,先將分配請(qǐng)求保存在隊(duì)列里,然后在守護(hù)線程中異步的創(chuàng)建Executor。

def requestTotalExecutorsWithPreferredLocalities(
      requestedTotal: Int,
      localityAwareTasks: Int,
      hostToLocalTaskCount: Map[String, Int],
      nodeBlacklist: Set[String]): Boolean = synchronized {
    this.numLocalityAwareTasks = localityAwareTasks
    this.hostToLocalTaskCounts = hostToLocalTaskCount
    if (requestedTotal != targetNumExecutors) {
      logInfo(s"Driver requested a total number of $requestedTotal executor(s).")
      targetNumExecutors = requestedTotal
      allocatorBlacklistTracker.setSchedulerBlacklistedNodes(nodeBlacklist)
      true
    } else {
      false
    }
  }

targetNumExecutors就是說(shuō)明要申請(qǐng)創(chuàng)建多少個(gè)Executor的意思。具體的實(shí)際創(chuàng)建動(dòng)作是在runAllocatedContainers中執(zhí)行的。

         launcherPool.execute(() => {
            try {
              new ExecutorRunnable(
                Some(container),
                conf,
                sparkConf,
                driverUrl,
                executorId,
                executorHostname,
                executorMemory,
                executorCores,
                appAttemptId.getApplicationId.toString,
                securityMgr,
                localResources
              ).run()
              updateInternalState()
            } catch {
              
            }

這一段就是在分配的Container上創(chuàng)建Executor的過(guò)程,用ExecutorRunner來(lái)包裝的。其中的driverUrl就是構(gòu)造函數(shù)中帶過(guò)來(lái)的driver的地址。

可見(jiàn)每個(gè)driver都會(huì)創(chuàng)建一個(gè)屬于自己的單獨(dú)的YarnAllocator。

順便說(shuō)一句,很多人以前Spark是集群,實(shí)際上Spark本身只是一種計(jì)算方式,可以看成它只是jar包。Spark的driver運(yùn)行時(shí)才會(huì)去申請(qǐng)Executor,向Yarn申請(qǐng)或者向Standalone集群申請(qǐng)。Standalone集群是指Master和Worker,不是指Spark core,更不是指SparkContext。

“怎么在Yarn集群中分配Container”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關(guān)的知識(shí)可以關(guān)注創(chuàng)新互聯(lián)網(wǎng)站,小編將為大家輸出更多高質(zhì)量的實(shí)用文章!


當(dāng)前標(biāo)題:怎么在Yarn集群中分配Container
URL地址:http://weahome.cn/article/gdihcc.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部