這篇文章主要介紹了spark with hive的用法示例,具有一定借鑒價(jià)值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。
創(chuàng)新互聯(lián)是一家專注于成都網(wǎng)站建設(shè)、網(wǎng)站制作與策劃設(shè)計(jì),九龍坡網(wǎng)站建設(shè)哪家好?創(chuàng)新互聯(lián)做網(wǎng)站,專注于網(wǎng)站建設(shè)10多年,網(wǎng)設(shè)計(jì)領(lǐng)域的專業(yè)建站公司;建站業(yè)務(wù)涵蓋:九龍坡等地區(qū)。九龍坡做網(wǎng)站價(jià)格咨詢:18982081108
//需要spark-hive project package hgs.spark.hive import org.apache.spark.SparkConf import org.apache.spark.SparkContext import org.apache.hadoop.hive.conf.HiveConfUtil import org.apache.spark.sql.SparkSession //注:需要將hive-site.xml放到當(dāng)前工程的classpath下面 object SparkWithHive { def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("hive").setMaster("local") val context = new SparkContext(conf) val builder = SparkSession.builder() .appName("hiveApp") .config("spark.sql.warehouse.dir","hdfs://bigdata00:9000/user/hive/warehouse/") .enableHiveSupport() .getOrCreate() import builder.implicits //test庫(kù)下面的test表 ssql.show()可以打印表的信息 val ssql = builder.sql("select a.id,b.name,b.age+10 bigage from test.test a,test.test1 b where a.id = b.id") //這里轉(zhuǎn)換為rdd進(jìn)行操作,轉(zhuǎn)換為三元的tuple, List((1,hgs,26), (2,wd,24), (3,zz,25), (4,cm,24)) val list = ssql.rdd.map(x=>(x(0),x(1),x(2))).collect() println(list.toList) context.stop() } }
感謝你能夠認(rèn)真閱讀完這篇文章,希望小編分享的“spark with hive的用法示例”這篇文章對(duì)大家有幫助,同時(shí)也希望大家多多支持創(chuàng)新互聯(lián),關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,更多相關(guān)知識(shí)等著你來(lái)學(xué)習(xí)!