這篇文章主要為大家展示了“Hadoop1.2.1集群如何搭建”,內(nèi)容簡(jiǎn)而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領(lǐng)大家一起研究并學(xué)習(xí)一下“Hadoop1.2.1集群如何搭建”這篇文章吧。
創(chuàng)新互聯(lián)建站專注為客戶提供全方位的互聯(lián)網(wǎng)綜合服務(wù),包含不限于成都網(wǎng)站設(shè)計(jì)、成都網(wǎng)站制作、外貿(mào)網(wǎng)站建設(shè)、和田縣網(wǎng)絡(luò)推廣、微信小程序定制開(kāi)發(fā)、和田縣網(wǎng)絡(luò)營(yíng)銷、和田縣企業(yè)策劃、和田縣品牌公關(guān)、搜索引擎seo、人物專訪、企業(yè)宣傳片、企業(yè)代運(yùn)營(yíng)等,從售前售中售后,我們都將竭誠(chéng)為您服務(wù),您的肯定,是我們最大的嘉獎(jiǎng);創(chuàng)新互聯(lián)建站為所有大學(xué)生創(chuàng)業(yè)者提供和田縣建站搭建服務(wù),24小時(shí)服務(wù)熱線:13518219792,官方網(wǎng)址:www.cdcxhl.com
1. 官網(wǎng)下載安裝包(版本: 1.2.1)2. 安裝依賴
Java 和 ssh
3. 解壓安裝包,添加HADOOP_HOME變量到/etc/profile
4. 搭建集群
機(jī)器規(guī)劃(三臺(tái)小集群)
主機(jī)名 | IP | Node | Tracker |
---|---|---|---|
master | 192.168.10.1 | NameNode | JobTracker |
slave1 | 192.168.10.1 | DateNode | TaskTracker |
slave2 | 192.168.10.2 | DateNode | TaskTracker |
slave3 | 192.168.10.3 | DateNode | TaskTracker |
在三臺(tái)機(jī)器上創(chuàng)建相同的用戶: hadoop
在三臺(tái)機(jī)器上分別配置/etc/hosts
192.168.10.1 master slave1 192.168.10.2 slave2 192.168.10.3 slave3
在三臺(tái)機(jī)器上建立ssh-key,并設(shè)置免密碼登陸
$ ssh-keygen -t dsa $ cat ~/ssh/id_dsa.pub >> ~/ssh/authorized_keys
將authorized_keys
文件內(nèi)容復(fù)制到另外兩臺(tái)主機(jī)的~/ssh/authorized_keys
文件中 5. 將Hadoop安裝包復(fù)制到三臺(tái)機(jī)器中,修改Hadoop中的配置文件 - conf/Hadoop-env.sh export JAVA_HOME=path-to-jdk
- conf/core-site.xml xml
- conf/hdfs-site.xml xml
- conf/mapred-site.xml xml
- conf/master master
- conf/slave text slave1 slave2 slave3
5. 啟動(dòng)Hadoop服務(wù)
$ bin/hadoop namenode -format #格式化hdfs $ bin/start-all.sh # 啟動(dòng)所有進(jìn)程 查看集群狀態(tài): http://localhost:50030 # MapReduce的Web頁(yè)面 http://localhost:50070 # HDFS的Web頁(yè)面 或 $ hadoop dfsadmin -report
6. 停止Hadoop服務(wù)bin/stop-all.sh
以上是“Hadoop1.2.1集群如何搭建”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!