真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

hadoop2.7+Spark1.4環(huán)境如何搭建

這篇文章主要為大家展示了“hadoop2.7+Spark1.4環(huán)境如何搭建”,內(nèi)容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領(lǐng)大家一起研究并學(xué)習(xí)一下“hadoop2.7+Spark1.4環(huán)境如何搭建”這篇文章吧。

創(chuàng)新互聯(lián)提供高防服務(wù)器租用、云服務(wù)器、香港服務(wù)器、成都IDC機(jī)房托管

一、hadoop偽分布式搭建

    其實(shí)官網(wǎng)有比較詳實(shí)的說明,英語好的可以直接看官網(wǎng),地址

    1、安裝JDK1.7

        這個省略,官網(wǎng)顯示1.6可以,但是我用openjdk1.6出了異常,JDK1.6沒試,直接用了JDK1.7

        配置好環(huán)境變量

vi /etc/profile
export JAVA_HOME=/usr/local/jdk1.7.0_79
export CLASSPATH=.:$JAVE_HOME/lib.tools.jar
export PATH=$PATH:$JAVA_HOME/bin

   添加完后執(zhí)行命令使配置生效

source /etc/profile
    2、安裝ssh、rsync,(以ubuntu為例)
  $ sudo apt-get install ssh
  $ sudo apt-get install rsync
    3、下載hadoop編譯包,鏡像地址(國內(nèi)鏡像竟然比US的還慢,不能忍,注意2.7的編譯包為64位)

    查是32還是64位的辦法

cd hadoop-2.7.0/lib/native
file libhadoop.so.1.0.0
hadoop-2.7.0/lib/native/libhadoop.so.1.0.0: ELF 64-bit LSB shared object, AMD x86-64, version 1 (SYSV), not stripped
    4、配置環(huán)境變量

    hadoop配置文件指定java路徑

    etc/hadoop/hadoop-env.sh

export JAVA_HOME=/usr/local/jdk1.7.0_79

  系統(tǒng)環(huán)境變量

export HADOOP_HOME=/usr/local/hadoop-2.7.0
export PATH=$PATH:$HADOOP_HOME/bin
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

  后兩條不加會出現(xiàn)

You have loaded library /usr/hadoop/hadoop-2.7.0/lib/native/libhadoop.so.1.0.0 which might have disabled stack guard. The VM will try to fix the stack guard now.

It's highly recommended that you fix the library with 'execstack -c ', or link it with '-z noexecstack'.

  添加完后執(zhí)行命令使配置生效

source /etc/profile

  執(zhí)行命令查看是否成功

hadoop version
    5、修改hadoop配置文件 

     etc/hadoop/core-site.xml:


    
        fs.defaultFS
        hdfs://localhost:9000
    

     etc/hadoop/hdfs-site.xml:


    
        dfs.replication
        1
    
     6、設(shè)置hadoop ssh無密碼訪問
  $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
  $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
  $ export HADOOP\_PREFIX=/usr/local/hadoop-2.7.0
    7、格式化節(jié)點(diǎn)和啟動hadoop
$ bin/hdfs namenode -format
$ sbin/start-dfs.sh

    打開瀏覽器 http://localhost:50070/看是否成功

    hdfs配置:username最好和當(dāng)前用戶名相同,不然會可能出現(xiàn)權(quán)限問題

  $ bin/hdfs dfs -mkdir /user
  $ bin/hdfs dfs -mkdir /user/
     8、yarn配置

     etc/hadoop/mapred-site.xml:


    
        mapreduce.framework.name
        yarn
    

    etc/hadoop/yarn-site.xml:


    
        yarn.nodemanager.aux-services
        mapreduce_shuffle
    

    啟動yarn

$ sbin/start-yarn.sh

    http://localhost:8088/查看是否成功

    至此hadoop單節(jié)點(diǎn)偽分布式安裝配置完成

二、spark安裝配置

spark的安裝相對就要簡單多了

1、首先下載,地址

hadoop2.7+Spark1.4環(huán)境如何搭建

因?yàn)槲抑耙呀?jīng)有hadoop了所以選擇第二個下載

2、下載解壓后進(jìn)入目錄
cd conf
cp spark-env.sh.template spark-env.sh
cp spark-defaults.conf.template spark-defaults.conf
vi conf/spark-env.sh

最后添加

export HADOOP_HOME=/usr/local/hadoop-2.7.0

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

export SPARK_DIST_CLASSPATH=$(hadoop classpath)

最后一個需要hadoop添加了環(huán)境變量才行。

官網(wǎng)配置中沒有前兩個配置,我運(yùn)行例子時總報錯,找不到hdfs jar 包。

3、回到解壓目錄運(yùn)行示例
./bin/run-example SparkPi 10

成功則到此配置完成

以上是“hadoop2.7+Spark1.4環(huán)境如何搭建”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學(xué)習(xí)更多知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!


當(dāng)前題目:hadoop2.7+Spark1.4環(huán)境如何搭建
瀏覽路徑:http://weahome.cn/article/pogioo.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部