這篇文章主要介紹了如何開啟hive metastore服務(wù),具有一定借鑒價值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。
建網(wǎng)站原本是網(wǎng)站策劃師、網(wǎng)絡(luò)程序員、網(wǎng)頁設(shè)計師等,應(yīng)用各種網(wǎng)絡(luò)程序開發(fā)技術(shù)和網(wǎng)頁設(shè)計技術(shù)配合操作的協(xié)同工作。創(chuàng)新互聯(lián)建站專業(yè)提供成都網(wǎng)站設(shè)計、做網(wǎng)站,網(wǎng)頁設(shè)計,網(wǎng)站制作(企業(yè)站、響應(yīng)式網(wǎng)站設(shè)計、電商門戶網(wǎng)站)等服務(wù),從網(wǎng)站深度策劃、搜索引擎友好度優(yōu)化到用戶體驗的提升,我們力求做到極致!
我們必須在hive服務(wù)端才能開啟hive metastore服務(wù)
第一種方式
hive --service metastore -p 9083 &
第二種方式
如果你在hive-site.xml里指定了hive.metastore.uris的port
hive.metastore.uris thrift://hadoop003:9083
就可以不指定端口啟動了
hive --service metastore
拷貝hive-site.xml
# cp ~/app/hive/conf/hive-site.xml ~/app/spark/conf/
執(zhí)行腳本命令
# spark-shell --jars ~/MySQL-connector-java-5.1.48-bin.jar
scala> spark.sql("use hive")2019-08-22 23:37:12 WARN ObjectStore:568 - Failed to get database global_temp, returning NoSuchObjectExceptionres0: org.apache.spark.sql.DataFrame = []scala> spark.sql("show tables").show+--------+----------+-----------+|database| tableName|isTemporary|+--------+----------+-----------+| hive| docs| false|| hive|word_count| false|+--------+----------+-----------+scala> spark.table("word_count").show+------+-----+| word|count|+------+-----+|hadoop| 1|| hello| 2|| world| 1|+------+-----+
感謝你能夠認真閱讀完這篇文章,希望小編分享的“如何開啟hive metastore服務(wù)”這篇文章對大家有幫助,同時也希望大家多多支持創(chuàng)新互聯(lián),關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,更多相關(guān)知識等著你來學習!