地址spark.apache.org
站在用戶的角度思考問(wèn)題,與客戶深入溝通,找到山南網(wǎng)站設(shè)計(jì)與山南網(wǎng)站推廣的解決方案,憑借多年的經(jīng)驗(yàn),讓設(shè)計(jì)與互聯(lián)網(wǎng)技術(shù)結(jié)合,創(chuàng)造個(gè)性化、用戶體驗(yàn)好的作品,建站類型包括:成都網(wǎng)站設(shè)計(jì)、成都網(wǎng)站建設(shè)、企業(yè)官網(wǎng)、英文網(wǎng)站、手機(jī)端網(wǎng)站、網(wǎng)站推廣、主機(jī)域名、網(wǎng)頁(yè)空間、企業(yè)郵箱。業(yè)務(wù)覆蓋山南地區(qū)。
復(fù)制一臺(tái)單獨(dú)的虛擬機(jī),名c
修改其ip,192.168.56.200
修改其hostname為c,hostnamectl set-hostname c
修改/etc/hosts加入對(duì)本機(jī)的解析
重啟網(wǎng)絡(luò)服務(wù) systemctl restart network
上傳spark安裝文件到root目錄
解壓spark到/usr/local下,將其名字修改為spark
cd /usr/local/spark
./bin/spark-submit --class org.apache.spark.examples.SparkPi ./examples/jars/spark-examples_2.11-2.1.0.jar 10000
創(chuàng)建root下的文本文件hello.txt
./bin/spark-shell
再次連接一個(gè)terminal,用jps觀察進(jìn)程,會(huì)看到spark-submit進(jìn)程
sc
sc.textFile("/root/hello.txt")
val lineRDD = sc.textFile("/root/hello.txt")
lineRDD.foreach(println)
觀察網(wǎng)頁(yè)端情況
val wordRDD = lineRDD.flatMap(line => line.split(" "))
wordRDD.collect
val wordCountRDD = wordRDD.map(word => (word,1))
wordCountRDD.collect
val resultRDD = wordCountRDD.reduceByKey((x,y)=>x+y)
resultRDD.collect
val orderedRDD = resultRDD.sortByKey(false)
orderedRDD.collect
orderedRDD.saveAsTextFile("/root/result")
觀察結(jié)果
簡(jiǎn)便寫法:sc.textFile("/root/hello.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).sortByKey().collect
start-dfs.sh
spark-shell執(zhí)行:sc.textFile("hdfs://192.168.56.100:9000/hello.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).sortByKey().collect (可以把ip換成master,修改/etc/hosts)
sc.textFile("hdfs://192.168.56.100:9000/hello.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).sortByKey().saveAsTextFile("hdfs://192.168.56.100:9000/output1")
在master和所有slave上解壓spark
修改master上conf/slaves文件,加入slave
修改conf/spark-env.sh,export SPARK_MASTER_HOST=master
復(fù)制spark-env.sh到每一臺(tái)slave
cd /usr/local/spark
./sbin/start-all.sh
在c上執(zhí)行:./bin/spark-shell --master spark://192.168.56.100:7077 (也可以使用配置文件)
觀察http://master:8080