主要分成兩部分,yarn的安裝與flink的安裝, 共3臺(tái)機(jī)器
網(wǎng)站的建設(shè)創(chuàng)新互聯(lián)建站專注網(wǎng)站定制,經(jīng)驗(yàn)豐富,不做模板,主營(yíng)網(wǎng)站定制開發(fā).小程序定制開發(fā),H5頁面制作!給你煥然一新的設(shè)計(jì)體驗(yàn)!已為成都VR全景等企業(yè)提供專業(yè)服務(wù)。
10.10.10.125
10.10.10.126
10.10.10.127
----------------------------------------------------yarn 安裝
wget 'http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.8.5/hadoop-2.8.5.tar.gz'
tar -zxvf hadoop-2.8.5.tar.gz -C /home/zr/hadoop/
vim /etc/profile
export HADOOP_HOME=/home/zr/hadoop/hadoop-2.8.5
export PATH=$HADOOP_HOME/bin:$PATH
source /etc/profile
vim /etc/sysconfig/network host名千萬不要搞成下劃線 否則就等著完蛋吧
HOSTNAME=flink125(不同的機(jī)器配置不同)
vim /etc/hosts
10.10.10.125 flink125
10.10.10.126 flink126
10.10.10.127 flink127
vim yarn-site.xml 增加以下內(nèi)容
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.nodemanager.aux-services.mapreduce.shuffle.class
org.apache.hadoop.mapred.ShuffleHandler
yarn.resourcemanager.hostname
flink125
yarn.resourcemanager.am.max-attempts
4
The maximum number of application master execution attempts
yarn.nodemanager.vmem-check-enabled
false
vi etc/hadoop/core-site.xml 增加以下內(nèi)容
fs.default.name
hdfs://flink125:9000
vi etc/hadoop/hdfs-site.xml 增加以下內(nèi)容
dfs.namenode.name.dir
file:///data/hadoop/storage/hdfs/name
dfs.datanode.data.dir
file:///data/hadoop/storage/hdfs/data
$ vi etc/hadoop/mapred-site.xml 增加以下內(nèi)容
mapreduce.framework.name
yarn
dfs.replication
2
vi slaves 增加以下內(nèi)容
flink126
flink127
vim hadoop/etc/hadoop/hdoop-env.sh
將語句 export JAVA_HOME=$JAVA_HOME
修改為 export JAVA_HOME=/usr/java/jdk1.8.0_101
以上操作都是在三臺(tái)機(jī)器上執(zhí)行
下面是免登操作
1 在125機(jī)器上執(zhí)行
rm -r ~/.ssh
ssh-keygen
scp ~/.ssh/id_rsa.pub 126,127 機(jī)器上
2 在126 127上分別執(zhí)行
cat id_rsa.pub>>.ssh/authorized_keys
最后在125上執(zhí)行以下操作
啟動(dòng)hadoop
start-dfs.sh
啟動(dòng)yarn
start-yarn.sh
----------------------------------------------------yarn 配置完畢
------------------------------------------------------flink 安裝
wget 'http://mirrors.tuna.tsinghua.edu.cn/apache/flink/flink-1.7.2/flink-1.7.2-bin-hadoop28-scala_2.12.tgz'
tar zxvf flink-1.7.2-bin-hadoop28-scala_2.12.tgz -C /home/zr/module/
修改flink/conf/masters,slaves,flink-conf.yaml
vi masters
flink125:8081
flink126:8081
vi slaves
flink126
flink127
vi flink-conf.yaml
taskmanager.numberOfTaskSlots:2
jobmanager.rpc.address: flink125
sudo vi /etc/profile
export FLINK_HOME=/opt/module/flink-1.6.1
export PATH=$PATH:$FLINK_HOME/bin
source /etc/profile
conf/flink-conf.yaml
high-availability: zookeeper
high-availability.zookeeper.quorum: flink125:2181,flink126:2181,flink127:2181
high-availability.storageDir: hdfs:///home/zr/flink/recovery
high-availability.zookeeper.path.root: /home/zr/flink
yarn.application-attempts: 4
zoo.cfg
server.1=flink125:2888:3888
server.2=flink126:2888:3888
server.3=flink127:2888:3888
以上操作都在三臺(tái)機(jī)器上執(zhí)行
--------------------------------------------flink 配置完畢
在125機(jī)器上執(zhí)行:
啟動(dòng)ZooKeeper仲裁
./start-zookeeper-quorum.sh
啟動(dòng)flink
./flink run -m yarn-cluster -yn 2 -ytm 2048 /home/zr/module/flink-1.7.2/examples/zr/flink-data-sync-0.1.jar
參考文章
https://www.cnblogs.com/frankdeng/p/9400627.html