当前位置:   article > 正文

Docker 安装hadoop_docker 安装 hadoop

docker 安装 hadoop

一、实验环境(实验设备)

硬件:单核CPU、内存1G 软件:Ubuntu 16.04操作系统、Docker、Hadoop

二、实验原理及内容

1.在Ubuntu系统中安装Docker

  1. Apt install docker
  2. 复制代码

 

  1. Apt-get install docker.io
  2. 复制代码

 

2.Docker 安装 hadoop

1).查找hadoop 镜像

 

2)将镜像pull下

 

3)通过docker images命令查看hadoop镜像是否pull成功

 

4)先通过命令

  1. docker run -i -t --name Master -h Master -p 50070:50070 sequenceiq/hadoop-docker /bin/bash
  2. 复制代码

运行一个hadoop镜像作为hadoop集群的namenode

 

再分别创建两个该hadoop集群的datanode

  1. docker run -i -t --name Slave1 -h Slave1 sequenceiq/hadoop-docker /bin/bash
  2. docker run -i -t --name Slave2 -h Slave2 sequenceiq/hadoop-docker /bin/bash
  3. 复制代码

 

这样hadoop的集群环境搭建完成。

3.hadoop三个节点之间无秘ssh配置

1)进入Master容器里面运行/etc/init.d/sshd start开启ssh,然后使用命令ssh-keygen -t rsa生成秘钥,最后将秘钥保存到authorized_keys中。

 

其余结点做相同操作。 进入3者查看ip信息 Master

 

Slave1

 

Slave2

 

4.hadoop的配置 由于hadoop集群环境已经搭建完成,我们只需更改Master节点上的hadoop配置文件,然后使用scp命令发送到其余各节点进行覆盖配置。 1)core-site.xml 配置

 

  1. <configuration>
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://had0:9000</value>
  5. </property>
  6. <property>
  7. <name>hadoop.tmp.dir</name>
  8. <value>/home/data/hadoopdata</value>
  9. </property>
  10. </configuration>
  11. 复制代码

2)hdfs-site.xml配置

 

  1. <property>
  2. <name>dfs.namenode.name.dir</name>
  3. <value>/home/data/hadoopdata/name</value>
  4. </property>
  5. &emsp;&emsp;<!--配置存储namenode数据的目录-->
  6. &emsp;&emsp;<property>
  7. <name>dfs.datanode.data.dir</name>
  8. <value>/home/data/hadoopdata/data</value>
  9. </property>
  10. &emsp;&emsp;<!--配置存储datanode数据的目录-->
  11. &emsp;&emsp;<property>
  12. <name>dfs.replication</name>
  13. <value>2</value>
  14. </property>
  15. &emsp;&emsp;<!--配置部分数量-->
  16. 复制代码

3)mapred-site.xml配置

 

  1. <configuration>
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>&emsp;&emsp;<!--配置mapreduce任务所在的资源调度平台-->
  6. </configuration>
  7. 复制代码

4)yarn-site.xml配置

 

  1. <configuration>
  2. <!-- Site specific YARN configuration properties -->
  3. <property>
  4. <name>yarn.resourcemanager.hostname</name>
  5. <value>slave1</value>
  6. </property>
  7. <!--配置yarn主节点-->
  8. <property>
  9. <name>yarn.nodemanager.aux-services</name>
  10. <value>mapreduce_shuffle</value>
  11. </property>
  12. <!--配置执行的计算框架-->
  13. </configuration>
  14. 复制代码

然后使用命令scp将该配置分发到其余两个节点,至此hadoop的配置完成

 

5.hadoop的运行 在Master中进入/usr/local/hadoop-2.7.0/sbin文件夹下执行命令./start-all.sh来启动该hadoop集群

 

成功启动之后使用命令jps查看是否启动

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/211345
推荐阅读
相关标签
  

闽ICP备14008679号