真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

生產(chǎn)常用Spark累加器剖析之二-創(chuàng)新互聯(lián)

Driver端

創(chuàng)新互聯(lián)科技有限公司專業(yè)互聯(lián)網(wǎng)基礎服務商,為您提供簡陽服務器托管高防服務器租用,成都IDC機房托管,成都主機托管等互聯(lián)網(wǎng)服務。
  1. Driver端初始化構建Accumulator并初始化,同時完成了Accumulator注冊,Accumulators.register(this)時Accumulator會在序列化后發(fā)送到Executor端
  2. Driver接收到ResultTask完成的狀態(tài)更新后,會去更新Value的值 然后在Action操作執(zhí)行后就可以獲取到Accumulator的值了

Executor端

  1. Executor端接收到Task之后會進行反序列化操作,反序列化得到RDD和function。同時在反序列化的同時也去反序列化Accumulator(在readObject方法中完成),同時也會向TaskContext完成注冊
  2. 完成任務計算之后,隨著Task結果一起返回給Driver

結合源碼分析

Driver端初始化

??Driver端主要經(jīng)過以下步驟,完成初始化操作:

val accum = sparkContext.accumulator(0, “AccumulatorTest”)
val acc = new Accumulator(initialValue, param, Some(name))
Accumulators.register(this)

Executor端反序列化得到Accumulator

??反序列化是在調(diào)用ResultTask的runTask方式時候做的操作:

// 會反序列化出來RDD和自己定義的function
val (rdd, func) = ser.deserialize[(RDD[T], (TaskContext, Iterator[T]) => U)](
   ByteBuffer.wrap(taskBinary.value), Thread.currentThread.getContextClassLoader)

??在反序列化的過程中,會調(diào)用Accumulable中的readObject方法:

private def readObject(in: ObjectInputStream): Unit = Utils.tryOrIOException {
    in.defaultReadObject()
    // value的初始值為zero;該值是會被序列化的
    value_ = zero
    deserialized = true
    // Automatically register the accumulator when it is deserialized with the task closure.
    //
    // Note internal accumulators sent with task are deserialized before the TaskContext is created
    // and are registered in the TaskContext constructor. Other internal accumulators, such SQL
    // metrics, still need to register here.
    val taskContext = TaskContext.get()
    if (taskContext != null) {
      // 當前反序列化所得到的對象會被注冊到TaskContext中
      // 這樣TaskContext就可以獲取到累加器
      // 任務運行結束之后,就可以通過context.collectAccumulators()返回給executor
      taskContext.registerAccumulator(this)
    }
  }

注意

Accumulable.scala中的value_,是不會被序列化的,@transient關鍵詞修飾了

@volatile @transient private var value_ : R = initialValue // Current value on master

累加器在各個節(jié)點的累加操作

針對傳入function中不同的操作,對應有不同的調(diào)用方法,以下列舉幾種(在Accumulator.scala中):

def += (term: T) { value_ = param.addAccumulator(value_, term) }
def add(term: T) { value_ = param.addAccumulator(value_, term) }
def ++= (term: R) { value_ = param.addInPlace(value_, term)}

根據(jù)不同的累加器參數(shù),有不同實現(xiàn)的AccumulableParam(在Accumulator.scala中):

trait AccumulableParam[R, T] extends Serializable {
  /**
  def addAccumulator(r: R, t: T): R
  def addInPlace(r1: R, r2: R): R
  def zero(initialValue: R): R
}

不同的實現(xiàn)如下圖所示:
生產(chǎn)常用Spark累加器剖析之二
以IntAccumulatorParam為例:

implicit object IntAccumulatorParam extends AccumulatorParam[Int] {
  def addInPlace(t1: Int, t2: Int): Int = t1 + t2
  def zero(initialValue: Int): Int = 0
}

我們發(fā)現(xiàn)IntAccumulatorParam實現(xiàn)的是trait AccumulatorParam[T]:

trait AccumulatorParam[T] extends AccumulableParam[T, T] {
  def addAccumulator(t1: T, t2: T): T = {
    addInPlace(t1, t2)
  }
}

在各個節(jié)點上的累加操作完成之后,就會緊跟著返回更新之后的Accumulators的value_值

聚合操作

在Task.scala中的run方法,會執(zhí)行如下:

// 返回累加器,并運行task
// 調(diào)用TaskContextImpl的collectAccumulators,返回值的類型為一個Map
(runTask(context), context.collectAccumulators())

在Executor端已經(jīng)完成了一系列操作,需要將它們的值返回到Driver端進行聚合匯總,整個順序如圖累加器執(zhí)行流程:
生產(chǎn)常用Spark累加器剖析之二
根據(jù)執(zhí)行流程,我們可以發(fā)現(xiàn),在執(zhí)行完collectAccumulators方法之后,最終會在DAGScheduler中調(diào)用updateAccumulators(event),而在該方法中會調(diào)用Accumulators的add方法,從而完成聚合操作:

def add(values: Map[Long, Any]): Unit = synchronized {
  // 遍歷傳進來的值
  for ((id, value) <- values) {
    if (originals.contains(id)) {
      // Since we are now storing weak references, we must check whether the underlying data
      // is valid.
      // 根據(jù)id從注冊的Map中取出對應的累加器
      originals(id).get match {
        // 將值給累加起來,最終將結果加到value里面
       // ++=是被重載了
        case Some(accum) => accum.asInstanceOf[Accumulable[Any, Any]] ++= value
        case None =>
          throw new IllegalAccessError("Attempted to access garbage collected Accumulator.")
      }
    } else {
      logWarning(s"Ignoring accumulator update for unknown accumulator id $id")
    }
  }
}

獲取累加器的值

通過accum.value方法可以獲取到累加器的值

至此,累加器執(zhí)行完畢。

另外有需要云服務器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務器、裸金屬服務器、高防服務器、香港服務器、美國服務器、虛擬主機、免備案服務器”等云主機租用服務以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務可用性高、性價比高”等特點與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應用場景需求。


文章標題:生產(chǎn)常用Spark累加器剖析之二-創(chuàng)新互聯(lián)
標題來源:http://weahome.cn/article/dpgope.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部