玖叶教程网

前端编程开发入门

基于Dockerfile快速搭建Hadoop3伪分布式集群,亲测无误

hadoop安装

目标

希望通过Dockerfile能做到一次编写,多次构建运行,方便其他同学快速搭建hadoop的学习环境。

依赖软件

  • docker
  • jdk-8u261-linux-x64(https://www.oracle.com/java/technologies/javase/javase8u211-later-archive-downloads.html)
  • hadoop-3.2.2(https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.2.2/hadoop-3.2.2.tar.gz)

基于centos8构建无密登录ssh镜像

拉取centos8镜像

docker pull centos:8

创建Dockerfile文件

FROM centos:8

# 安装必要软件
RUN yum install -y net-tools which openssh-clients openssh-server iproute.x86_64 wget passwd vim \
    # 修改root密码
    && echo "root:root" | chpasswd \
    # 添加root用户到sudoers,允许使用sudo命令
    && echo "root   ALL=(ALL)       ALL" >> /etc/sudoers \
    # ssh用的公私钥认证,需要把PAM认证中的UsePAM yes改为no
    && sed -i 's/UsePAM yes/UsePAM no/g' /etc/ssh/sshd_config \
    # 创建ssh所需的文件夹/var/run/sshd,否则ssh启动不起来
    && mkdir /var/run/sshd \
    # 生成无密码的公私密钥对
    && ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa \
    # 公钥添加授权文件authorized_keys中
    && cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys \
    # 设置初次ssh登录时,无需yes确认登陆
    && echo "StrictHostKeyChecking no" >~/.ssh/config \
    && echo "alias ll='ls -l'" >> ~/.bashrc \
    && source ~/.bashrc

EXPOSE 22
CMD ["/usr/sbin/sshd", "-D"]

构建镜像

docker build -t centos8-ssh:1.0 .

构建伪集群hadoop镜像

伪集群部署规划


nn

dn1

dn2

HDFS

NameNode DataNode

DataNode

SecondaryNameNode DataNode

YARN

NodeManager

RescoureManager NodeManager

NodeManager

hadoop的配置文件

  • core-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <!-- 指定 NameNode 的地址 -->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://nn:8020</value>
    </property>
    <!-- 指定 hadoop 数据的存储目录 -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop/hadoop-3.2.2/data</value>
    </property>
</configuration>
  • hdfs-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <!-- nn web 端访问地址-->
    <property>
        <name>dfs.namenode.http-address</name>
        <value>nn:9870</value>
    </property>
    <!-- 2nn web 端访问地址-->
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>dn2:9868</value>
    </property>
</configuration>
  • yarn-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <!-- 指定 MR 走 shuffle -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <!-- 指定 ResourceManager 的地址-->
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>dn1</value>
    </property>
    <!-- 环境变量的继承 -->
    <property>
        <name>yarn.nodemanager.env-whitelist</name>
        <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CO
NF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAP
RED_HOME</value>
    </property>
</configuration>
  • workers文件
nn
dn1
dn2

创建Dockerfile文件

FROM centos8-ssh:1.0
# software文件夹一定要和Dockerfile在同一个目录
ARG software_home=software
RUN mkdir $software_home
COPY $software_home/* $software_home/

RUN mkdir /usr/local/java/ \
    && tar -xvf $software_home/jdk-8u261-linux-x64.tar.gz -C /usr/local/java/ \
    && mkdir /usr/local/hadoop/ \
    && tar -xvf $software_home/hadoop-3.2.2.tar.gz -C /usr/local/hadoop/ \
    && echo "export JAVA_HOME=/usr/local/java/jdk1.8.0_261" >> ~/.bashrc \
    && source ~/.bashrc \
    && echo "export JRE_HOME=$JAVA_HOME/jre" >> ~/.bashrc \
    && source ~/.bashrc \
    && echo "export PATH=$JAVA_HOME/bin:$PATH:$JRE_HOME/bin" >> ~/.bashrc \
    && echo "export HADOOP_HOME=/usr/local/hadoop/hadoop-3.2.2" >> ~/.bashrc \
    && source ~/.bashrc \
    && echo "export HADOOP_CONFIG_HOME=$HADOOP_HOME/etc/hadoop" >> ~/.bashrc \
    && echo "export PATH=$PATH:$HADOOP_HOME/bin" >> ~/.bashrc \
    && source ~/.bashrc \
    && echo "export PATH=$PATH:$HADOOP_HOME/sbin" >> ~/.bashrc \
    && source ~/.bashrc \
    && rm -rf $HADOOP_CONFIG_HOME/core-site.xml \
    && rm -rf $HADOOP_CONFIG_HOME/hdfs-site.xml \
    && rm -rf $HADOOP_CONFIG_HOME/yarn-site.xml \
    && rm -rf $HADOOP_CONFIG_HOME/workers \
    && rm -rf $HADOOP_HOME/sbin/start-dfs.sh \
    && rm -rf $HADOOP_HOME/sbin/start-yarn.sh \
    && rm -rf $HADOOP_HOME/sbin/stop-dfs \
    && rm -rf $HADOOP_HOME/sbin/stop-yarn.sh \
    && cp $software_home/core-site.xml $HADOOP_CONFIG_HOME \
    && cp $software_home/hdfs-site.xml $HADOOP_CONFIG_HOME \
    && cp $software_home/yarn-site.xml $HADOOP_CONFIG_HOME \
    && cp $software_home/workers $HADOOP_CONFIG_HOME \
    && cp $software_home/start-dfs.sh $HADOOP_HOME/sbin \
    && cp $software_home/start-yarn.sh $HADOOP_HOME/sbin \
    && cp $software_home/stop-dfs.sh $HADOOP_HOME/sbin \
    && cp $software_home/stop-yarn.sh $HADOOP_HOME/sbin \
    && chmod 777 $HADOOP_HOME/sbin/*.sh \
    && chmod 777 $HADOOP_HOME/bin/*

构建镜像

构建镜像前,需要在Dockerfile同级下创建software文件,以下文件拷贝到本目录下:

core-site.xml  
hdfs-site.xml
yarn-site.xml
workers
start-dfs.sh
start-yarn.sh  
stop-dfs.sh  
stop-yarn.sh
hadoop-3.2.2.tar.gz  
jdk-8u261-linux-x64.tar.gz

构建镜像:

docker build -t hqg-hadoop:1.0 .

创建集群专有网络

docker network create --subnet=172.20.0.0/16 hnet

运行hadoop容器

集群网络规划


nn(NameNode)

dn1(RescoureManager)

dn2

指定ip(--ip)

172.20.1.0

172.20.1.1

172.20.1.2

主机名(--hostname)

nn

dn1

dn2

主机映射(--add-host)

dn1:172.20.1.1 dn2:172.20.1.2

nn:172.20.1.0 dn2:172.20.1.2

nn:172.20.1.0 dn1:172.20.1.1

端口映射(-p)

9870:9870

8088:8088


指定网络(--network)

hnet

hnet

hnet

nn节点容器启动命令

docker run -itd -p 9870:9870 --name=nn --hostname=nn --network=hnet --ip=172.20.1.0 --add-host=dn1:172.20.1.1 --add-host=dn2:172.20.1.2 --privileged hqg-hadoop:1.0 /usr/sbin/init

dn1节点容器启动命令

docker run -itd -p 8088:8088 --name=dn1 --hostname=dn1 --network=hnet --ip=172.20.1.1 --add-host=nn:172.20.1.0 --add-host=dn2:172.20.1.2 --privileged hqg-hadoop:1.0 /usr/sbin/init

dn2节点容器启动命令

docker run -itd --name=dn2 --hostname=dn2 --network=hnet --ip=172.20.1.2 --add-host=nn:172.20.1.0 --add-host=dn1:172.20.1.1 --privileged hqg-hadoop:1.0 /usr/sbin/init

启动hadoop集群

格式化namenode(第一次启动格式化NameNode)

hdfs namenode -format

启动HDFS

NameNode节点上,执行 sbin/start-dfs.sh。

对于root用户,需要在start-dfs.sh,stop-dfs.sh顶部添加以下:

#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

启动YARN

ResourceManager节点上,执行sbin/start-yarn.sh。

对于root用户,需要在start-yarn.sh,stop-yarn.sh顶部添加以下:

#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

验证集群

  • 查看HDFS的NameNode节点 http://虚拟机/物理机ip:9870/
  • 查看YARN的ResourceManager http://虚拟机/物理机ip:8088/



发表评论:

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言