当前位置:   article > 正文

Hadoop分布式集群环境搭建(三节点)_hadoop三节点集群yarn node -list显示0节点

hadoop三节点集群yarn node -list显示0节点

一、安装准备

  1. 创建hadoop账号
  2. 更改ip
  3. 安装Java 更改/etc/profile 配置环境变量

    export $JAVA_HOME=/usr/java/jdk1.7.0_71

  4. 修改host文件域名

    172.16.133.149 hadoop101
    172.16.133.150 hadoop102
    172.16.133.151 hadoop103 
    
    • 1
    • 2
    • 3
    • 4
  5. 安装ssh 配置无密码登录
  6. 解压hadoop

    /hadoop/hadoop-2.6.2

二、修改conf下面的配置文件

依次修改hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml和slaves文件。

1.hadoop-env.sh

`#添加JAVA_HOME:`
`export JAVA_HOME=/usr/java/jdk1.7.0_71`
  • 1
  • 2

2.core-site.xml

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/hadoop/hadoop-2.6.2/hdfs/tmp</value>
    </property>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://hadoop101:9000</value>
    </property>
</configuration>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

3.hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>

    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:///hadoop/hadoop-2.6.2/hdfs/name</value>
    </property>

    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:///hadoop/hadoop-2.6.2/hdfs/data</value>
    </property>

    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop101:9001</value>
    </property>

    <property>
        <name>dfs.permissions</name>
        <value>false</value>
    </property>

</configuration>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28

4.mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

5.yarn-site.xml

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>

    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop101</value>
    </property>

    <property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>

</configuration>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18

6.slaves

hadoop102
hadoop103
  • 1
  • 2
  • 3

7.最后,将整个hadoop-2.6.2文件夹及其子文件夹使用scp复制到两台Slave(hadoop102、hadoop103)的相同目录中:

scp -r \hadoop\hadoop-2.6.2\ hadoop@hadoop102:\hadoop\

scp -r \hadoop\hadoop-2.6.2\ hadoop@hadoop103:\hadoop\
  • 1
  • 2
  • 3
  • 4

三、启动运行Hadoop(进入hadoop文件夹下)

  1. 格式化NameNode

    dfs namenode -format

  2. 启动Namenode、SecondaryNameNode和DataNode

    [hadoop@hadoop101]$ start-dfs.sh

  3. 启动ResourceManager和NodeManager

    [hadoop@hadoop101]$ start-yarn.sh

  4. 最终运行结果
    hadoop101

    hadoop102

    hadoop103

四、测试Hadoop

  1. 测试HDFS

    浏览器输入http://<-NameNode主机名或IP->:50070

    HDFS

  2. 测试ResourceManager

    浏览器输入http://<-ResourceManager所在主机名或IP->:8088

    ResourceManager

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号