真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

SPARK2與Phoenix整合的方法是什么

本篇內(nèi)容主要講解“SPARK2與Phoenix整合的方法是什么”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強(qiáng)。下面就讓小編來帶大家學(xué)習(xí)“SPARK2與Phoenix整合的方法是什么”吧!

專注于為中小企業(yè)提供成都網(wǎng)站建設(shè)、成都網(wǎng)站制作服務(wù),電腦端+手機(jī)端+微信端的三站合一,更高效的管理,為中小企業(yè)龍安免費做網(wǎng)站提供優(yōu)質(zhì)的服務(wù)。我們立足成都,凝聚了一批互聯(lián)網(wǎng)行業(yè)人才,有力地推動了上1000+企業(yè)的穩(wěn)健成長,幫助中小企業(yè)通過網(wǎng)站建設(shè)實現(xiàn)規(guī)模擴(kuò)充和轉(zhuǎn)變。

1、環(huán)境說明

操作系統(tǒng)CentOS Linux release 7.4.1708 (Core)
Ambari2.6.x
HDP2.6.3.0
Spark2.x
Phoenix4.10.0-HBase-1.2
 

2、條件

  1. HBase 安裝完成

  2. Phoenix 已經(jīng)啟用,Ambari界面如下所示:

    SPARK2與Phoenix整合的方法是什么    
  3. Spark 2安裝完成

 

3、Spark2 與 Phoenix整合

步驟:

  1. 進(jìn)入 Ambari Spark2 配置界面

    SPARK2與Phoenix整合的方法是什么    
  2. 找到自定義 spark2-defaults并添加如下配置項:

    spark.driver.extraClassPath=/usr/hdp/current/phoenix-client/phoenix-4.10.0-HBase-1.2-client.jar
    spark.executor.extraClassPath=/usr/hdp/current/phoenix-client/phoenix-4.10.0-HBase-1.2-client.jar
       
    SPARK2與Phoenix整合的方法是什么      
    mark
 

4、Yarn HA 問題

如果配置了Yarn HA, 則需要修改 Yarn HA 配置,否則spark-submit提交任務(wù)會報如下錯誤:

Exception in thread "main" java.lang.IllegalAccessError: tried to access method org.apache.hadoop.yarn.client.ConfiguredRMFailoverProxyProvider.getProxyInternal()Ljava/lang/Object; from class org.apache.hadoop.yarn.client.RequestHedgingRMFailoverProxyProvider
       at org.apache.hadoop.yarn.client.RequestHedgingRMFailoverProxyProvider.init(RequestHedgingRMFailoverProxyProvider.java:75)
       at org.apache.hadoop.yarn.client.RMProxy.createRMFailoverProxyProvider(RMProxy.java:163)
       at org.apache.hadoop.yarn.client.RMProxy.createRMProxy(RMProxy.java:94)
       at org.apache.hadoop.yarn.client.ClientRMProxy.createRMProxy(ClientRMProxy.java:72)
       at org.apache.hadoop.yarn.client.api.impl.YarnClientImpl.serviceStart(YarnClientImpl.java:187)
       at org.apache.hadoop.service.AbstractService.start(AbstractService.java:193)
       at org.apache.spark.deploy.yarn.Client.submitApplication(Client.scala:153)
       at org.apache.spark.scheduler.cluster.YarnClientSchedulerBackend.start(YarnClientSchedulerBackend.scala:56)
       at org.apache.spark.scheduler.TaskSchedulerImpl.start(TaskSchedulerImpl.scala:173)
       at org.apache.spark.SparkContext.(SparkContext.scala:509)
       at org.apache.spark.SparkContext$.getOrCreate(SparkContext.scala:2516)
       at org.apache.spark.sql.SparkSession$Builder$$anonfun$7.apply(SparkSession.scala:922)
       at org.apache.spark.sql.SparkSession$Builder$$anonfun$7.apply(SparkSession.scala:914)
       at scala.Option.getOrElse(Option.scala:121)
       at org.apache.spark.sql.SparkSession$Builder.getOrCreate(SparkSession.scala:914)
       at cn.spark.sxt.SparkOnPhoenix$.main(SparkOnPhoenix.scala:13)
       at cn.spark.sxt.SparkOnPhoenix.main(SparkOnPhoenix.scala)
       at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
       at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
       at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
       at java.lang.reflect.Method.i
 

修改Yarn HA配置:

原來的配置:

yarn.client.failover-proxy-provider=org.apache.hadoop.yarn.client.RequestHedgingRMFailoverProxyProvider
 
SPARK2與Phoenix整合的方法是什么  

改為現(xiàn)在的配置

yarn.client.failover-proxy-provider=org.apache.hadoop.yarn.client.ConfiguredRMFailoverProxyProvider
 
SPARK2與Phoenix整合的方法是什么

如果沒有配置 Yarn HA, 則不需要進(jìn)行此步配置

到此,相信大家對“SPARK2與Phoenix整合的方法是什么”有了更深的了解,不妨來實際操作一番吧!這里是創(chuàng)新互聯(lián)網(wǎng)站,更多相關(guān)內(nèi)容可以進(jìn)入相關(guān)頻道進(jìn)行查詢,關(guān)注我們,繼續(xù)學(xué)習(xí)!


新聞標(biāo)題:SPARK2與Phoenix整合的方法是什么
地址分享:http://weahome.cn/article/gohigj.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部