真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

Flume結(jié)合Spark測試

近日,在測試Flume結(jié)合Kafka結(jié)合Spark Streaming的實驗。今天把Flume與Spark的簡單結(jié)合做出來了,這里記錄一下,避免網(wǎng)友走彎路。有不周到的地方還希望路過的大神多多指教。

成都創(chuàng)新互聯(lián)-專業(yè)網(wǎng)站定制、快速模板網(wǎng)站建設(shè)、高性價比普寧網(wǎng)站開發(fā)、企業(yè)建站全套包干低至880元,成熟完善的模板庫,直接使用。一站式普寧網(wǎng)站制作公司更省心,省錢,快速模板網(wǎng)站建設(shè)找我們,業(yè)務(wù)覆蓋普寧地區(qū)。費用合理售后完善,10年實體公司更值得信賴。

實驗比較簡單,分為兩部分:一、使用avro-client發(fā)送數(shù)據(jù) 二、使用netcat發(fā)送數(shù)據(jù)

首先Spark程序需要Flume的兩個jar包:

flume-ng-sdk-1.4.0、spark-streaming-flume_2.11-1.2.0

一、使用avro-client發(fā)送數(shù)據(jù)

1、 編寫Spark程序,該程序的功能是接收Flume事件

import org.apache.log4j.{Level, Logger}

import org.apache.spark.SparkConf

importorg.apache.spark.storage.StorageLevel

import org.apache.spark.streaming._

import org.apache.spark.streaming.flume._

 

object FlumeEventTest{

 

  defmain(args:Array[String]) {

 

   Logger.getLogger("org.apache.spark").setLevel(Level.WARN)

   Logger.getLogger("org.apache.eclipse.jetty.server").setLevel(Level.OFF)

 

   val hostname = args(0)

   val port = args(1).toInt

   val batchInterval = args(2)

 

   val sparkConf = newSparkConf().setAppName("FlumeEventCount").setMaster("local[2]")

   val ssc = new StreamingContext(sparkConf,batchInterval)

 

    valstream = FlumeUtils.createStream(ssc,hostname,port,StorageLevel.MEMORY_ONLY)

   stream.count().map(cnt => "Received " + cnt + " flumeevents." ).print()

 

   ssc.start()

   ssc.awaitTermination()

  }

}

2、 Flume配置文件參數(shù)

a1.channels = c1

a1.sinks = k1

a1.sources = r1

 

a1.sinks.k1.type = avro

a1.sinks.k1.channel = c1

a1.sinks.k1.hostname = localhost

a1.sinks.k1.port = 9999

 

a1.sources.r1.type = avro

a1.sources.r1.bind = localhost

a1.sources.r1.port = 44444

a1.sources.r1.channels = c1

 

a1.channels.c1.type = memory

a1.channels.c1.capacity = 1000

a1.channels.c1.transactionCapacity = 100

這里,使用avro向flume的44444端口發(fā)送數(shù)據(jù);然后flume通過9999向Spark發(fā)送數(shù)據(jù)。

3、 運行Spark程序:

Flume結(jié)合Spark測試

4、 通過Flume配置文件啟動Flumeagent

../bin/flume-ng agent --conf conf--conf-file ./flume-conf.conf --name a1

-Dflume.root.logger=INFO,console

Flume結(jié)合Spark測試

Spark運行效果:

Flume結(jié)合Spark測試

5、 使用avro來發(fā)送文件:

./flume-ng avro-client --conf conf -Hlocalhost -p 44444 -F/opt/servicesClient/Spark/spark/conf/spark-env.sh.template-Dflume.root.logger=DEBUG,console

Flume agent效果:

Flume結(jié)合Spark測試

Spark效果:

Flume結(jié)合Spark測試

二、使用netcat發(fā)送數(shù)據(jù)

1、 Spark程序同上

2、 配置Flume參數(shù)

a1.channels = c1

a1.sinks = k1

a1.sources = r1

 

a1.sinks.k1.type = avro

a1.sinks.k1.channel = c1

a1.sinks.k1.hostname = localhost

a1.sinks.k1.port = 9999

 

a1.sources.r1.type = netcat

a1.sources.r1.bind = localhost

a1.sources.r1.port = 44444

a1.sources.r1.channels = c1

 

a1.channels.c1.type = memory

a1.channels.c1.capacity = 1000

a1.channels.c1.transactionCapacity = 100

這里,使用telnet作為Flume的數(shù)據(jù)源

3、 運行Spark程序同上

4、 通過Flume配置文件啟動Flumeagent

../bin/flume-ng agent --conf conf--conf-file ./flume-conf.conf --name a1

-Dflume.root.logger=INFO,console

Flume結(jié)合Spark測試

注意:這里使用netcat作為Flume的數(shù)據(jù)源,注意與avro作為源的效果區(qū)別

5、 使用telnet發(fā)送數(shù)據(jù)

Flume結(jié)合Spark測試

Spark效果:

Flume結(jié)合Spark測試

這是兩個比較簡單的demo,如果真正在項目中使用Flume來收集數(shù)據(jù),使用Kafka作為分布式消息隊列,使用Spark Streaming實時計算,還需要詳細研究Flume和Spark流計算。

前段時間給部門做培訓,演示了Spark Streaming的幾個例子:文本處理、網(wǎng)絡(luò)數(shù)據(jù)處理、stateful操作和window操作,這幾天有時間整理整理,分享給大家。包括Spark MLlib的兩個簡單demo:基于K-Means的用戶分類和基于協(xié)同過濾的電影推薦系統(tǒng)。

今天看了斯坦福Andrew Ng教授的ML課程,講的很棒,這里把鏈接分享給大家:

http://open.163.com/special/opencourse/machinelearning.html


網(wǎng)站名稱:Flume結(jié)合Spark測試
文章網(wǎng)址:http://weahome.cn/article/gsejei.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部