当前位置:   article > 正文

Linux环境下部署hadoop集群_linux部署hadoop集群

linux部署hadoop集群

1、准备工作

使用普通用户hadoop登录虚拟机

新开一个窗口,使用root用户登录

在/etc/sudoers添加:hadoop  ALL=(ALL)       NOPASSWD:ALL

在/opt目录下创建module和software两个文件夹

  1. #进入opt目录
  2. cd /opt
  3. #创建两个文件夹
  4. mkdir module
  5. mkdir software

 将用户权限修改为hadoop

  1. sudo chown -R 1000:1000 module
  2. sudo chown -R 1000:1000 software

 当root变成了hadoop则修改成功了,然后克隆出两台虚拟机 

将下载好的jdk和hadoop上传到software

将hadoop和jdk解压到module目录

  1. tar -zxvf hadoop-3.1.3.tar.gz -C ../module/
  2. tar -zxvf jdk-8u391-linux-x64.tar.gz -C ../module/

配置jdk和hadoop环境

在/etc/profile.d目录下创建一个my_env.sh文件里面写入

  1. export JAVA_HOME=/opt/module/jdk1.8.0_391
  2. export PATH=$PATH:$JAVA_HOME/bin
  3. export HADOOP_HOME=/opt/module/hadoop-3.1.3
  4. export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

使得配置文件生效

source my_env.sh

映射主机名

sudo vim /etc/hosts

添加以下内容

192.168.119.100 hadoop100
192.168.119.101 hadoop101
192.168.119.102 hadoop102  

关闭防火墙

sudo systemctl stop firewalld

2、配置Hadoop

设置免密

每台机器上都执行以下内容

第一步:

ssh-keygen

第二步:

ssh-copy-id hadoop100

ssh-copy-id hadoop101

ssh-copy-id hadoop102

来到/opt/module/hadoop-3.1.3/etc/hadoop目录下

2.1、配置Hadoop中的jdk环境

vim hadoop-env.sh

2.2、配置核心文件

vim core-site.xml

在configuration标签中添加以下内容

  1. <!-- 指定 NameNode 的地址 -->
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://hadoop100:8020</value>
  5. </property>
  6. <!-- 指定 hadoop 数据的存储目录 -->
  7. <property>
  8. <name>hadoop.tmp.dir</name>
  9. <value>/opt/module/hadoopData/temp</value>
  10. </property>
  11. <!-- 配置 HDFS 网页登录使用的静态用户为 hadoop -->
  12. <property>
  13. <name>hadoop.http.staticuser.user</name>
  14. <value>hadoop</value>
  15. </property>

2.3、hdfs配置

vim hdfs-site.xml

在configuration标签中添加以下内容

  1. <!-- nn web 端访问地址-->
  2. <property>
  3. <name>dfs.namenode.http-address</name>
  4. <value>hadoop100:9870</value>
  5. </property>
  6. <!-- 2nn web 端访问地址-->
  7. <property>
  8. <name>dfs.namenode.secondary.http-address</name>
  9. <value>hadoop102:9868</value>
  10. </property>

2.4、mapred配置

vim mapred-site.xml

在configuration标签中添加以下内容

  1. <!-- 指定 MapReduce 程序运行在 Yarn 上 -->
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>
  6. <!-- 历史服务器端地址 -->
  7. <property>
  8. <name>mapreduce.jobhistory.address</name>
  9. <value>hadoop100:10020</value>
  10. </property>
  11. <!-- 历史服务器 web 端地址 -->
  12. <property>
  13. <name>mapreduce.jobhistory.webapp.address</name>
  14. <value>hadoop100:19888</value>
  15. </property>
  16. <property>
  17. <name>yarn.app.mapreduce.am.env</name>
  18. <value>HADOOP_MAPRED_HOME=/opt/module/hadoop-3.1.3</value>
  19. </property>
  20. <property>
  21. <name>mapreduce.map.env</name>
  22. <value>HADOOP_MAPRED_HOME=/opt/module/hadoop-3.1.3</value>
  23. </property>
  24. <property>
  25. <name>mapreduce.reduce.env</name>
  26. <value>HADOOP_MAPRED_HOME=/opt/module/hadoop-3.1.3</value>
  27. </property>

2.5、yarn配置

vim yarn-site.xml

在configuration标签中添加以下内容

  1. <!-- 指定 MR 走 shuffle -->
  2. <property>
  3. <name>yarn.nodemanager.aux-services</name>
  4. <value>mapreduce_shuffle</value>
  5. </property>
  6. <!-- 指定 ResourceManager 的地址-->
  7. <property>
  8. <name>yarn.resourcemanager.hostname</name>
  9. <value>hadoop101</value>
  10. </property>
  11. <!-- 环境变量的继承 -->
  12. <property>
  13. <name>yarn.nodemanager.env-whitelist</name>
  14. <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CO
  15. NF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAP
  16. RED_HOME</value>
  17. </property>
  18. <!-- 开启日志聚集功能 -->
  19. <property>
  20. <name>yarn.log-aggregation-enable</name>
  21. <value>true</value>
  22. </property>
  23. <!-- 设置日志聚集服务器地址 -->
  24. <property>
  25. <name>yarn.log.server.url</name>
  26. <value>http://hadoop100:19888/jobhistory/logs</value>
  27. </property>
  28. <!-- 设置日志保留时间为 7 天 -->
  29. <property>
  30. <name>yarn.log-aggregation.retain-seconds</name>
  31. <value>604800</value>
  32. </property>

2.6 workers配置

将里面的所有内容删除掉

添加以下的内容

hadoop100

hadoop101

hadoop102

 3、将配置好的hadoop传到另外的两台虚拟机中

  1. scp -r hadoop-3.1.3/ hadoop101:$PWD
  2. scp -r hadoop-3.1.3/ hadoop102:$PWD

在hadoop100上执行以下内容

hadoop namenode -format

启动集群

start-all.sh

第一台机器jps

 

第二台机器jps

第三台机器jps

4、测试集群是否启动成功

访问:https://192.168.119.100:9870

访问:https://192.168.119.101:8088

看到这里,如果对你有所帮助,请点个关注,谢谢。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/1002542
推荐阅读
相关标签
  

闽ICP备14008679号