当前位置:   article > 正文

hadoop详细安装及配置_hadooopanzhuangpeizhi

hadooopanzhuangpeizhi

一、下载

http://hadoop.apache.org/?? hadoop官网

二、解压

注:使用管理员权限解压

三、配置环境变量

添加HADOOP_HOME配置:自己安装hadoop路径,我的是D:hadoop-3.0.3

在Path中添加如下:自己安装hadoop路径/bin,如:D:/hadoop-3.0.3/bin

四、hadoop需要jdk支持,jdk路径不能有空格,如有空格,可以这样,如:”D:Program Files"Javajdk1.8.0_25

五、hadoop路径下创建data用于数据存储,再在data下创建datanode目录和namenode目录

六、hadoop配置

四个hadoop路径/etc/hadoop/core-site.xml,etc/hadoop/mapred-site.xml,etc/hadoop/hdfs-site.xml,etc/hadoop/yarn-site.xml

1.core-site.xml

<configuration>??
????<property>??
???????<name>fs.default.name</name>??
???????<value>hdfs://localhost:9000</value>??
???</property>
</configuration>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

myeclipse上配置hadoop时,localhost需写成自己的IP

2.mapred-site.xml

<configuration>??
????<property>??
???????<name>mapreduce.framework.name</name>??
???????<value>yarn</value>??
???</property>
</configuration>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

3.hdfs-site.xm

<configuration>??
????<!--?这个参数设置为1,因为是单机版hadoop?-->??
????<property>??
????????<name>dfs.replication</name>??
????????<value>1</value>??
????</property>??
????<property>???
?????<name>dfs.permissions</name>???
?????<value>false</value>???
??</property>??
???<property>??
???????<name>dfs.namenode.name.dir</name>??
???????<value>/D:/hadoop-3.0.3/data/namenode</value>??
???</property>??
???<property>??
????????<name>fs.checkpoint.dir</name>??
????????<value>/D:/hadoop-3.0.3/data/snn</value>??
????</property>??
????<property>??
????????<name>fs.checkpoint.edits.dir</name>??
????????<value>/D:/hadoop-3.0.3/data/snn</value>??
????</property>??
???????<property>??
???????<name>dfs.datanode.data.dir</name>??
???????<value>/D:/hadoop-3.0.3/data/datanode</value>??
???</property>
</configuration>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27

4.yarn-site.xml

<configuration>??
<!--?Site?specific?YARN?configuration?properties?-->??
????<property>??
????????<name>yarn.nodemanager.aux-services</name>??
????????<value>mapreduce_shuffle</value>??
???</property>??
???<property>??
????????<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>????
????????<value>org.apache.hadoop.mapred.ShuffleHandler</value>??
???</property>
</configuration>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

七、修改D:/hadoop-3.0.3/etc/hadoop/hadoop-env.cmd配置,找到set JAVA_HOME=%JAVA_HOME%替换为set JAVA_HOME="D:Program Files"Javajdk1.8.0_25

八、winutils中对应的hadoop版本中的bin替换自己hadoop安装目录下的bin

找到对应的版本下的bin替换hadoop中的bin

配置完成

九、启动服务

1.cmd中,D:hadoop-3.0.3in> hdfs namenode -format

执行后,data下的namenode和datanode下会有current等文件,我当时安装的是hadoop3.1.1,用的winutils中的hadoop3.0.0,datanode总是没有启动没有数据,换成hadoop3.0.3,使用wintuils的hadoop3.0.0后,就可以了。

2.D:hadoop-3.0.3sbin启动start-all.cmd服务,会看到

  • Hadoop Namenode
  • Hadoop datanode
  • YARN Resourc Manager
  • YARN Node Manager

十、HDFS应用

1、通过http://127.0.0.1:8088/即可查看集群所有节点状态:

2、访问http://localhost:9870/即可查看文件管理页面:

a.进入文件系统

b.创建目录

c.上传成功

注:在之前的版本中文件管理的端口是50070,在3.0.0中替换为了9870端口

d.使用hadoop命令进行文件操作

mkdir命令创建目录:hadoop fs -mkdir hdfs://ip:9000/user

put命令上传文件:hadoop fs -put D:/a.txt hdfs://ip:9000/user/

ls命令查看指定目录文件列表:hadoop fs -ls hdfs://ip:9000/user/

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/383888
推荐阅读
相关标签
  

闽ICP备14008679号