小編給大家分享一下怎么用Eclipse開發(fā)Spark2.0,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
成都創(chuàng)新互聯(lián)主要從事成都做網(wǎng)站、網(wǎng)站建設、網(wǎng)頁設計、企業(yè)做網(wǎng)站、公司建網(wǎng)站等業(yè)務。立足成都服務宿州,10多年網(wǎng)站建設經(jīng)驗,價格優(yōu)惠、服務專業(yè),歡迎來電咨詢建站服務:13518219792
1.首先我用的是scala版本的ide. 這個可以去官網(wǎng)下載。先介紹下我的版本:hadoop2.7.2+spark2.0+scala2.11+java1.7
首先打開eclipse,設置好workspace后,就能開始開發(fā)了
2.新建scala Project .起個項目的名字
3.新建個scala object .開始寫代碼
注意需要導入相關的包。主要有scala的包還有spark的包,spark需要的包主要在spark安裝目錄下的jar文件下的所有包
4.廢話少說,直接上代碼
object TestSparkStreaming {
def main(args: Array[String]): Unit = {
import org.apache.spark._
import org.apache.spark.streaming._
import org.apache.spark.streaming.StreamingContext._ // not necessary since Spark 1.3
// Create a local StreamingContext with two working thread and batch interval of 1 second.
// The master requires 2 cores to prevent from a starvation scenario.
val conf = new SparkConf().setMaster("local[2]").setAppName("NetworkWordCount")
val ssc = new StreamingContext(conf, Seconds(5))
val lines = ssc.socketTextStream("master", 9999)
// val lines = ssc.textFileStream("/home/usr/temp/")
val words = lines.flatMap(_.split(" "))
import org.apache.spark.streaming.StreamingContext._ // not necessary since Spark 1.3
// Count each word in each batch
val pairs = words.map(word => (word, 1))
val wordCounts = pairs.reduceByKey(_ + _)
// Print the first ten elements of each RDD generated in this DStream to the console
wordCounts.print()
ssc.start() // Start the computation
ssc.awaitTermination()
}
}
5.在linux 終端連上9999端口 nc-lk 9999
輸入一些單詞
6.可以看到eclipse的控制臺會輸出結果
以上是“怎么用Eclipse開發(fā)Spark2.0”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學習更多知識,歡迎關注創(chuàng)新互聯(lián)行業(yè)資訊頻道!