這篇文章主要介紹“centos下hadoop-spark的安裝方法”,在日常操作中,相信很多人在centos下hadoop-spark的安裝方法問(wèn)題上存在疑惑,小編查閱了各式資料,整理出簡(jiǎn)單好用的操作方法,希望對(duì)大家解答”centos下hadoop-spark的安裝方法”的疑惑有所幫助!接下來(lái),請(qǐng)跟著小編一起來(lái)學(xué)習(xí)吧!
創(chuàng)新互聯(lián)是專(zhuān)業(yè)的衡山網(wǎng)站建設(shè)公司,衡山接單;提供網(wǎng)站建設(shè)、成都網(wǎng)站設(shè)計(jì),網(wǎng)頁(yè)設(shè)計(jì),網(wǎng)站設(shè)計(jì),建網(wǎng)站,PHP網(wǎng)站建設(shè)等專(zhuān)業(yè)做網(wǎng)站服務(wù);采用PHP框架,可快速的進(jìn)行衡山網(wǎng)站開(kāi)發(fā)網(wǎng)頁(yè)制作和功能擴(kuò)展;專(zhuān)業(yè)做搜索引擎喜愛(ài)的網(wǎng)站,專(zhuān)業(yè)的做網(wǎng)站團(tuán)隊(duì),希望更多企業(yè)前來(lái)合作!
環(huán)境:centos + hadoop2.5.2 +scala-2.10.5 + spark1.3.1
1、從http://spark.apache.org/downloads.html 下載編譯好的spark
2、準(zhǔn)備scala
從http://www.scala-lang.org/ 下載scala-2.10.5.rpm。不下載2.11,因?yàn)橄螺d2.11要重新編譯spark
安裝scala rpm -ivh scala-2.10.5.rpm
3、解壓spark
tar -zxvf spark-1.3.1-bin-hadoop2.4.tar.gz
4、配置環(huán)境變量
在/etc/profile最后面增加 export SPARK_HOME=/usr/local/spark-1.3.1-bin-hadoop2.4 export PATH=$PATH:$SPARK_HOME/bin # 生效 source /etc/profile
5、配置spark
vi /usr/local/spark-1.3.1-bin-hadoop2.4/conf/spark-env.sh 在最后面增加: export JAVA_HOME=/usr/java/jdk1.7.0_76 export SPARK_MASTER_IP=192.168.1.21 export SPARK_WORKER_MEMORY=2g export HADOOP_CONF_DIR=/usr/local/hadoop-2.5.2/etc/hadoop
6、配置slave節(jié)點(diǎn)
vi /usr/local/spark-1.3.1-bin-hadoop2.4/conf/slaves master slaver1
7、復(fù)制配置文件到slave節(jié)點(diǎn)
scp -r /usr/local/spark-1.3.1-bin-hadoop2.4/ root@slaver1:/usr/local/
8、啟動(dòng)集群
cd /usr/local/spark-1.3.1-bin-hadoop2.4/sbin ./start-all.sh
9、查看集群是否啟動(dòng)成功
jps # master 查看是否有:Master,Worker # slaver 查看是否有:Worker
訪(fǎng)問(wèn)http://master:8080/
到此,關(guān)于“centos下hadoop-spark的安裝方法”的學(xué)習(xí)就結(jié)束了,希望能夠解決大家的疑惑。理論與實(shí)踐的搭配能更好的幫助大家學(xué)習(xí),快去試試吧!若想繼續(xù)學(xué)習(xí)更多相關(guān)知識(shí),請(qǐng)繼續(xù)關(guān)注創(chuàng)新互聯(lián)網(wǎng)站,小編會(huì)繼續(xù)努力為大家?guī)?lái)更多實(shí)用的文章!