真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

54.HDFS分布式文件系統(tǒng)-創(chuàng)新互聯(lián)

HDFS分布式文件系統(tǒng)

創(chuàng)新互聯(lián)主要從事成都做網(wǎng)站、成都網(wǎng)站設(shè)計、網(wǎng)頁設(shè)計、企業(yè)做網(wǎng)站、公司建網(wǎng)站等業(yè)務(wù)。立足成都服務(wù)隨縣,十余年網(wǎng)站建設(shè)經(jīng)驗,價格優(yōu)惠、服務(wù)專業(yè),歡迎來電咨詢建站服務(wù):18982081108

HDFS系統(tǒng)借助于一款hadoop工具進行部署,文件系統(tǒng)的主要優(yōu)勢是主要是提高客戶端的讀取效率,假如一塊1TB的磁盤數(shù)據(jù)需要讀取,讀取速度為100MB/S,如果將1塊磁盤中的數(shù)據(jù)分別存儲到100塊磁盤上,那么當(dāng)用戶讀取時,它們并行運行,那么用戶讀取操作就可以瞬間完成。

一個HDFS群集由一個運行于master上的Namenode和多個運行于slave上的Datanode組成。

Namenode負(fù)責(zé)管理文件系統(tǒng)的命名空間和客戶端對文件系統(tǒng)的訪問操作。

Datanode負(fù)責(zé)管理存儲的數(shù)據(jù)。

文件以塊形式進行在datanode中存儲,假設(shè)一個塊20MB,塊的副本數(shù)為3,設(shè)置塊的副本數(shù)來達到冗余效果,防止單個datanode磁盤故障后數(shù)據(jù)丟失。將相同的副本塊存儲到不同的datanode中實現(xiàn)冗余,大文件將被切成小塊存儲。

DHFS文件系統(tǒng)搭建步驟:

Master和Slave服務(wù)器的先決環(huán)境:

關(guān)閉防火墻等基本操作

# iptables -F

# setenforce 0

# ifconfig

配置hosts解析

# vim /etc/hosts

修改內(nèi)容:

192.168.0.133  master

192.168.0.134  slave1

192.168.0.135  slave2

修改主機名

# vim /etc/sysconfig/network

修改內(nèi)容:

NETWORKING=yes

HOSTNAME=master

# hostname master

Master服務(wù)器上:

創(chuàng)建hadoop運行用戶和密碼

# useradd hadoop

# passwd hadoop

部署JAVA環(huán)境

# tar xzvf jdk-7u65-linux-x64.gz

# mv jdk1.7.0_65/   /usr/local/java

安裝hadoop軟件

# tar xzvf hadoop-2.4.0.tar.gz

# mv hadoop-2.4.0  /usr/local/hadoop

# chown -R  hadoop.hadoop  /usr/local/hadoop

設(shè)置環(huán)境變量

# vim /etc/profile

添加內(nèi)容:

JAVA_HOME=/usr/local/java

HADOOP_HOME=/usr/local/hadoop

PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

# source /etc/profile

修改hadoop配置文件

# vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh    Hadoop的環(huán)境文件

添加內(nèi)容:

JAVA_HOME=/usr/local/java

# vim /usr/local/hadoop/etc/hadoop/core-site.xml     核心配置文件

添加內(nèi)容:

fs.defaultFS

hdfs://master:9000             

hadoop.tmp.dir

file:/usr/local/hadoop/tmp       

hadoop

# cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml

# vim /usr/local/hadoop/etc/hadoop/mapred-site.xml  Hadoop的進程配置文件

添加內(nèi)容:

mapred.job.tracker              

master:9001                  

mapred.local.dir             

/usr/local/hadoop/var          

# vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml    Namenode和Datanode配置文件

添加內(nèi)容:

dfs.namenode.name.dir           

file:/usr/local/hadoop/name

dfs.datanade.data.dir             

file:/usr/local/hadoop/data        

dfs.replication        

3

dfs.webhdfs.enable              

true

注:

Namenode負(fù)責(zé)管理文件系統(tǒng)的命名空間和客戶端對文件系統(tǒng)的訪問操作。

Datanode負(fù)責(zé)管理存儲的數(shù)據(jù)。

# vim /usr/local/hadoop/etc/hadoop/masters

添加內(nèi)容:

master

# vim /usr/local/hadoop/etc/hadoop/slaves

添加內(nèi)容:

Slave1

Slave2

部署SSH,配置免驗證開啟Hadoop

# su hadoop

$ ssh-keygen

$ ssh-copy-id  -i  ~/.ssh/id_rsa.pub   hadoop@slave1

$ ssh-copy-id  -i  ~/.ssh/id_rsa.pub   hadoop@slave2

$ cat ~/.ssh/id_rsa.pub  >>  ~/.ssh/authorized_keys

通過SSH將JAVA,HADOOP配置文件同步到Slave服務(wù)器

# scp -r /usr/local/hadoop   slave1:/usr/local/

# scp -r /usr/local/java   slave1:/usr/local/

# scp -r/etc/profile   slave1:/etc/

# scp -r /usr/local/hadoop   slave2:/usr/local/

# scp -r /usr/local/java   slave2:/usr/local/

# scp -r/etc/profile   slave2:/etc/

Slave服務(wù)器上:

#source /etc/profile

#chown -R hadoop.hadoop /usr/local/hadoop

部署完后HDFS群集的操作:

Master服務(wù)器上操作:

格式化HDFS文件系統(tǒng)

#su hadoop

$hdfs namenode -format

看到下面的日志信息則成功格式化:

16/10/13 10:50:22 INFO common.Storage: Storage directory /usr/local/hadoop/name has been successfully formatted.

檢查新生成的目錄

$ ll    /usr/local/hadoop/name/

看到:

drwxr-xr-x. 2 root root 4096 10月13 10:50 current

啟動hadoop群集

$ /usr/local/hadoop/sbin/start-all.sh

驗證HDFS節(jié)點各進程是否正常

Master上顯示:

[hadoop@master Desktop]$ jps

6114 NameNode

6438 ResourceManager

6579 Jps

6304 SecondaryNameNode

Slaves上顯示:[root@localhost桌面]# jps

5387 Jps

5303 NodeManager

5191 DataNode

驗證訪問

訪問https://192.168.0.133:50070 可以看到視圖系統(tǒng)

為DHFS群集添加節(jié)點:

關(guān)閉防火墻等基本操作

配置host解析

修改主機名

部署JAVA環(huán)境

設(shè)置環(huán)境變量

安裝hadoop軟件

Master服務(wù)器通過SSH同步配置文件到節(jié)點服務(wù)器

新節(jié)點啟動并平衡節(jié)點已經(jīng)存儲的數(shù)據(jù)

$hadoop-daemon.sh start datanode

$hadoop-daemon.sh start tasktracker

$jps

$hadoop dfsadmin -report             查看群集信息

為DHFS群集刪除節(jié)點:

$ vim /usr/local/hadoop/etc/hadoop/core-site.xml

添加內(nèi)容:

dfs.hosts.exclude

/usr/localhadoop/etc/hadoop/exclude     

$vim /usr/local/hadoop/etc/hadoop/excludes

添加內(nèi)容:

slave4                              要刪除的節(jié)點名

$hdfs dfsadmin  -refreshnodes         刷新配置

$jps

$hadoop dfsadmin -report             查看群集信息

Hadoop基本命令的使用

命令

作用

Hadoop  fs  -help

幫助

Hadoop  fs  -usage

幫助

Hadoop  fs  -ls

顯示

Hadoop  fs  -mkdir

創(chuàng)建

Hadoop  fs  -put

上傳

Hadoop  fs  -report

查看節(jié)點狀態(tài)信息

Hadoop  dfsadmin  -safemode  enter

開啟安全模式

Hadoop  dfsadmin  -safemode  leave

開啟安全模式

Hadoop  fs  -copyfromlocal  本地源文件HDFS目標(biāo)目錄

將本地文件復(fù)制到HDFS上

Hadoop  fs  -copylocal  HDFS文件   本地

將HDFS中的文件復(fù)制到本地

Hadoop  fs  -chgrp  組名  DHFS文件或目錄

修改屬組

Hadoop  fs  -chmode  755  DHFS文件或目錄

修改權(quán)限

Hadoop  fs  -chown  屬主.屬組  DHFS文件或目錄

修改所有者

Hadoop  fs  -du  DHFS文件或目錄

統(tǒng)計顯示目錄中文件大小

Hadoop  fs  -getmerge  -nl  DHFS文件  本地文件

合并文件

另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)cdcxhl.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機、免備案服務(wù)器”等云主機租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務(wù)可用性高、性價比高”等特點與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場景需求。


網(wǎng)頁標(biāo)題:54.HDFS分布式文件系統(tǒng)-創(chuàng)新互聯(lián)
鏈接地址:http://weahome.cn/article/pocph.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部