真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

hadoop2.7.3平臺(tái)怎么搭建spark2.1.1

這篇文章主要講解了“hadoop2.7.3平臺(tái)怎么搭建spark2.1.1”,文中的講解內(nèi)容簡單清晰,易于學(xué)習(xí)與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學(xué)習(xí)“hadoop2.7.3平臺(tái)怎么搭建spark2.1.1”吧!

創(chuàng)新互聯(lián)公司成都企業(yè)網(wǎng)站建設(shè)服務(wù),提供成都網(wǎng)站制作、做網(wǎng)站網(wǎng)站開發(fā),網(wǎng)站定制,建網(wǎng)站,網(wǎng)站搭建,網(wǎng)站設(shè)計(jì),響應(yīng)式網(wǎng)站開發(fā),網(wǎng)頁設(shè)計(jì)師打造企業(yè)風(fēng)格網(wǎng)站,提供周到的售前咨詢和貼心的售后服務(wù)。歡迎咨詢做網(wǎng)站需要多少錢:13518219792

hadoop平臺(tái)搭建spark 
三臺(tái)機(jī)器
master
slave1
slave2

--安裝配置scala  master 節(jié)點(diǎn)

tar -zxvf  scala-2.12.2.tgz

/etc/profile

export SCALA_HOME=/usr/scala-2.12.2

export PATH=$SCALA_HOME/bin:$PATH

scala -version

復(fù)制到slave 并配置環(huán)境變量

scp -r scala-2.12.2 root@slave1:/usr/

scp -r scala-2.12.2 root@slave2:/usr/

---安裝spark  在master節(jié)點(diǎn)運(yùn)行

tar -zxvf spark-2.1.1-bin-hadoop2.7.tgz

vi /etc/profile

export SPARK_HOME=/usr/spark-2.1.1-bin-hadoop2.7

export PATH=$SPARK_HOME/bin:$PATH

最終變量

export HADOOP_HOME=/usr/hadoop-2.7.3

export SCALA_HOME=/usr/scala-2.12.2

export SPARK_HOME=/usr/spark-2.1.1-bin-hadoop2.7

export PATH=$PATH:$HADOOP_HOME/bin:$SCALA_HOME/bin:$SPARK_HOME/bin

配置

 1.spark-env.sh

cp spark-env.sh.template spark-env.sh

修改此文件,在文件末尾添加

###jdk安裝目錄

export JAVA_HOME=/usr/java/jdk1.8.0_101

###scala安裝目錄

export SCALA_HOME=/usr/scala-2.12.2

###spark集群的master節(jié)點(diǎn)的ip

export SPARK_MASTER_IP=192.168.58.10

###指定的worker節(jié)點(diǎn)能夠最大分配給Excutors的內(nèi)存大小

export SPARK_WORKER_MEMORY=1g

###hadoop集群的配置文件目錄

export HADOOP_CONF_DIR=/usr/hadoop-2.7.3/etc/hadoop

2.slaves

cp slaves.template slaves

master

slave1

slave2

將spark文件和環(huán)境變量復(fù)制到slave節(jié)點(diǎn)

scp -r spark-2.1.1-bin-hadoop2.7 root@slave1:/usr/

scp -r spark-2.1.1-bin-hadoop2.7 root@slave2:/usr/

如果沒有設(shè)置節(jié)點(diǎn)ip不用管下面的

在Slave1和Slave2修改$SPARK_HOME/conf/spark-env.sh,

將export SPARK_LOCAL_IP=114.55.246.88改成Slave1和Slave2對(duì)應(yīng)節(jié)點(diǎn)的IP。

spark啟動(dòng)與關(guān)閉 保證hadoop已經(jīng)運(yùn)行

啟動(dòng) 進(jìn)入到spark目錄

./sbin/start-all.sh

關(guān)閉

./sbin/stop-all.sh

---驗(yàn)證

http://192.168.58.10:8080/

spark-shell

感謝各位的閱讀,以上就是“hadoop2.7.3平臺(tái)怎么搭建spark2.1.1”的內(nèi)容了,經(jīng)過本文的學(xué)習(xí)后,相信大家對(duì)hadoop2.7.3平臺(tái)怎么搭建spark2.1.1這一問題有了更深刻的體會(huì),具體使用情況還需要大家實(shí)踐驗(yàn)證。這里是創(chuàng)新互聯(lián),小編將為大家推送更多相關(guān)知識(shí)點(diǎn)的文章,歡迎關(guān)注!


當(dāng)前文章:hadoop2.7.3平臺(tái)怎么搭建spark2.1.1
本文鏈接:http://weahome.cn/article/gedhgj.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部