真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

win7下使用Idea遠程連接spark執(zhí)行sparkpi,我自己的實驗

win7下使用Idea遠程連接spark執(zhí)行spark pi,我自己的實驗

成都創(chuàng)新互聯(lián)公司堅持“要么做到,要么別承諾”的工作理念,服務(wù)領(lǐng)域包括:成都網(wǎng)站制作、網(wǎng)站設(shè)計、企業(yè)官網(wǎng)、英文網(wǎng)站、手機端網(wǎng)站、網(wǎng)站推廣等服務(wù),滿足客戶于互聯(lián)網(wǎng)時代的蚌埠網(wǎng)站設(shè)計、移動媒體設(shè)計的需求,幫助企業(yè)找到有效的互聯(lián)網(wǎng)解決方案。努力成為您成熟可靠的網(wǎng)絡(luò)建設(shè)合作伙伴!

win7地址為192.168.0.2,ubuntu為虛擬機,地址為192.168.0.3

遠程連接spark

源代碼語言為:

package main.scala.sogou
/**
  * Created by danger on 2016/9/16.
  */
import org.apache.spark.SparkContext._
import org.apache.spark.{SparkConf,SparkContext}

object RemoteDebug {
  def main(args: Array[String]) {
    val conf = new SparkConf().setAppName("Spark Pi").setMaster("spark://192.168.0.3:7077")
      .setJars(List("D:\\scalasrc\\out\\artifacts\\scalasrc.jar"))
    val spark = new SparkContext(conf)
    val slices = if (args.length > 0) args(0).toInt else 2
    val n = 100000 * slices
    val count = spark.parallelize(1 to n, slices).map { i =>
      val x = Math.random * 2 - 1
      val y = Math.random * 2 - 1
      if (x * x + y * y < 1) 1 else 0
    }.reduce(_ + _)
    println("Pi is roughly " + 4.0 * count / n)
    spark.stop()
  }
}

你需要修改的地方就是spark://192.168.0.3:7077
還有就是setJars的地址:D:\\scalasrc\\out\\artifacts\\scalasrc.jar

另外我沒有Import spark的Math包

所以random用的是Math.random

在run的edit configuration界面中,配置參數(shù)

七十主要是mainclass哈

main.scala.sogou.RemoteDebug

單機run 

遠程的服務(wù)器一陣狂賺,消停后,出現(xiàn)了

Process finished with exit code 0

呵呵,成功了

但結(jié)果呢?

網(wǎng)上找,原來在這里

16/09/16 09:40:57 INFO DAGScheduler: ResultStage 0 (reduce at RemoteDebug.scala:19) finished in 75.751 s

16/09/16 09:40:57 INFO TaskSchedulerImpl: Removed TaskSet 0.0, whose tasks have all completed, from pool 

16/09/16 09:40:57 INFO DAGScheduler: Job 0 finished: reduce at RemoteDebug.scala:19, took 76.071948 s

Pi is roughly 3.1385

16/09/16 09:40:57 INFO SparkUI: Stopped Spark web UI at http://192.168.0.2:4040

16/09/16 09:40:57 INFO DAGScheduler: Stopping DAGScheduler

16/09/16 09:40:57 INFO SparkDeploySchedulerBackend: Shutting down all executors

16/09/16 09:40:57 INFO SparkDeploySchedulerBackend: Asking each executor to shut down

16/09/16 09:40:57 INFO MapOutputTrackerMasterEndpoint: MapOutputTrackerMasterEndpoint stopped!

16/09/16 09:40:57 INFO MemoryStore: MemoryStore cleared

太帥了,成功了,參考http://blog.csdn.net/javastart/article/details/43372977


新聞名稱:win7下使用Idea遠程連接spark執(zhí)行sparkpi,我自己的實驗
網(wǎng)站地址:http://weahome.cn/article/jicoee.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部