当前位置: 代码迷 >> 综合 >> 部署hadoop-2.6.0-cdh5.7.0 HA
  详细解决方案

部署hadoop-2.6.0-cdh5.7.0 HA

热度:93   发布时间:2023-11-03 17:03:48.0

集群运行服务规划

在这里插入图片描述

环境准备

准备三台虚拟机
192.168.247.210 hadoop001
192.168.247.220 hadoop002
192.168.247.230 hadoop003
并创建hadoop用户

su - hadoop
mkdir app
将以下三个安装包上传到app目录
hadoop-2.6.0-cdh5.7.0.tar.gzjdk-8u45-linux-x64.gzzookeeper-3.4.6.tar.gz

1、配置hosts文件
三台机器分别配置hosts文件
在这里插入图片描述
2、配置三台ssh信任关系
1)、在三台机器分别执行以下命令:
ssh-keygen -t rsa
执行该命令后连摁三下回车
2)、拷贝公钥到同一台机器,三台机器执行
ssh-copy-id node01.hadoop.com
3)、复制第一台机器的认证到其他机器
scp /home/hadoop/.ssh/authorized_keys hadoop002:/home/hadoop/.ssh
scp /home/hadoop/.ssh/authorized_keys hadoop003:/home/hadoop/.ssh

3、配置jdk

mkdir -p /usr/java/
tar -zxvf  /home/hadoop/app/jdk-8u45-linux-x64.gz -C /usr/java

4、关闭防火墙

iptables off

iptables -L 查看防火墙规则
-F 清空

部署zookeeper

1、三台解压zookeeper*
2、创建软连接

ln -s /home/hadoop/app/zookeeper-3.4.6 /home/hadoop/app/zookeeper

3、配置dataDir(文件存储目录)

vi /home/hadoop/app/zookeeper/conf/zoo.cfg

在这里插入图片描述
4、配置ID号

5、将配置文件发送到其他两台机器

scp conf/zoo.cfg hadoop002:/home/hadoop/app/zookeeper/conf/zoo.cfg
scp conf/zoo.cfg hadoop003:/home/hadoop/app/zookeeper/conf/zoo.cfg

6、每台机器配置myid文件

echo 1 >/home/hadoop/app/zookeeper/data/myid ##hadoop001
echo 2 >/home/hadoop/app/zookeeper/data/myid ## hadoop002
echo 3 >/home/hadoop/app/zookeeper/data/myid ## hadoop003

7、zkServer.sh start

配置环境变量

vi ~/.bash_profile

在这里插入图片描述

配置hdfs&yarn HA

1、解压hadoop并创建软连接
ln -s /home/hadoop/app/hadoop-2.6.0-cdh5.7.0 /home/hadoop/app/hadoop
2、修改配置文件
配置文件较长:这里就不贴出来了。
hdfs-dfs.xml
core-site.xml
mapred-site.xml
yarn-site.xml
slaves

3、建目录

## namenode 存放name table(fsimage)本地目录
mkdir -p /home/hadoop/app/hadoop-2.6.0-cdh5.7.0/data/dfs/name 
## 临时目录
mkdir -p /home/hadoop/app/hadoop-2.6.0-cdh5.7.0/tmp
## datanode存放 block块本地目录
mkdir -p /home/hadoop/app/hadoop-2.6.0-cdh5.7.0/data/dfs/data 
##JournalNode存放数据地址
mkdir -p /home/hadoop/app/hadoop-2.6.0-cdh5.7.0/data/dfs/jn 

4、修改hadoop-env.sh
在这里插入图片描述
5、启动jn

 hadoop-daemon.sh start journalnode

6、格式化namenode

 hadoop namenode -format

7、同步 NameNode 元数据

scp -r /home/hadoop/app/hadoop/data hadoop002:/home/hadoop/app/hadoop

8、初始化ZKFC

hdfs zkfc -formatZK

启动集群

start-dfs.sh
start-yarn.sh
备用机启动RM:
yarn-daemon.sh start resourcemanager
启动jobhistory:
mr-jobhistory-daemon.sh start historyserver

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述