真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

如何使用spark-redis組件訪問云數(shù)據(jù)庫Redis

本篇內(nèi)容主要講解“如何使用spark-redis組件訪問云數(shù)據(jù)庫Redis”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實(shí)用性強(qiáng)。下面就讓小編來帶大家學(xué)習(xí)“如何使用spark-redis組件訪問云數(shù)據(jù)庫Redis”吧!

成都創(chuàng)新互聯(lián)基于成都重慶香港及美國等地區(qū)分布式IDC機(jī)房數(shù)據(jù)中心構(gòu)建的電信大帶寬,聯(lián)通大帶寬,移動(dòng)大帶寬,多線BGP大帶寬租用,是為眾多客戶提供專業(yè)服務(wù)器托管報(bào)價(jià),主機(jī)托管價(jià)格性價(jià)比高,為金融證券行業(yè)達(dá)州電信機(jī)房,ai人工智能服務(wù)器托管提供bgp線路100M獨(dú)享,G口帶寬及機(jī)柜租用的專業(yè)成都idc公司。

創(chuàng)建服務(wù)

我們以EMR-3.21.0版本和Redis 4.0為例。EMR集群安裝的Spark版本是2.4.3,我們需要使用對應(yīng)的Spark-Redis 2.4版本,該組件可以支持Redis 2.9.0以上版本。

EMR和Redis需要在同一個(gè)VPC網(wǎng)絡(luò)中創(chuàng)建,同時(shí),在云數(shù)據(jù)庫Redis實(shí)例啟動(dòng)之后,需要在“白名單設(shè)置”中添加EMR集群IP地址(參考Redis快速入門文檔,https://help.aliyun.com/document_detail/107043.html)。

啟動(dòng)Spark Shell

接下去,我們登錄EMR Master節(jié)點(diǎn)啟動(dòng)Spark Shell。如果Master節(jié)點(diǎn)可以連接外網(wǎng),可以使用package方式加載spark-redis相關(guān)jar包:

spark-shell --packages com.redislabs:spark-redis:2.4.0 \ --conf spark.redis.host=hostname \ --conf spark.redis.port=6379 \ --conf spark.redis.auth=password

spark.redis.host等參數(shù)可以在命令行指定,也可以配置在 spark-defaults.conf 中,也可以在代碼中指定。其中:

  1. spark.redis.host:Redis內(nèi)網(wǎng)連接地址

  2. spark.redis.port:Redis服務(wù)端口號

  3. spark.redis.auth:創(chuàng)建Redis實(shí)例時(shí)指定的密碼

也可以通過--jars的方式指定依賴的jar包:

spark-shell --jars spark-redis-2.4.0.jar,jedis-3.1.0-m1.jar,commons-pool2-2.0.jar \ --conf spark.redis.host=hostname \ --conf spark.redis.port=6379 \ --conf spark.redis.auth=password

通過Spark寫入數(shù)據(jù)到Redis(RDD)

scala> import com.redislabs.provider.redis._    import com.redislabs.provider.redis._
scala> val data = Array(("key1", "v1"), ("key2", "world"), ("key3", "hello"), ("key4", "Hong"), ("key5", "Kong"))    data: Array[(String, String)] = Array((key1,v1), (key2,world), (key3,hello), (key4,Hong), (key5,Kong))
scala> val distData = sc.parallelize(data)    distData: org.apache.spark.rdd.RDD[(String, String)] = ParallelCollectionRDD[0] at parallelize at :29
scala> sc.toRedisKV(distData)

讀取Redis(RDD)

scala> val stringRDD = sc.fromRedisKV("key*").map{ kv => kv._2 }stringRDD: org.apache.spark.rdd.RDD[String] = MapPartitionsRDD[3] at map at :27
scala> val values = stringRDD.collect()values: Array[String] = Array(world, hello, v1, Kong, Hong)
scala> println(values.mkString(","))world,hello,v1,Kong,Hong

Spark DataFrame寫入Redis

scala> case class Person(name: String, age: Int)defined class Person
scala> val personSeq = Seq(Person("John", 30), Person("Peter", 45))personSeq: Seq[Person] = List(Person(John,30), Person(Peter,45))
scala> val df = spark.createDataFrame(personSeq)df: org.apache.spark.sql.DataFrame = [name: string, age: int]
scala> df.write.format("org.apache.spark.sql.redis").option("table", "person").save()                                                                                

到此,相信大家對“如何使用spark-redis組件訪問云數(shù)據(jù)庫Redis”有了更深的了解,不妨來實(shí)際操作一番吧!這里是創(chuàng)新互聯(lián)網(wǎng)站,更多相關(guān)內(nèi)容可以進(jìn)入相關(guān)頻道進(jìn)行查詢,關(guān)注我們,繼續(xù)學(xué)習(xí)!


網(wǎng)頁題目:如何使用spark-redis組件訪問云數(shù)據(jù)庫Redis
標(biāo)題來源:http://weahome.cn/article/jjehhg.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部