赞
踩
在master、slave1、slave2上操作:
修改 hdfs-site.xml 文件以设置HDFS参数:
vim hdfs-site.xml
<property> <!--备份文本数量为2--> <name>dfs.replication</name> <value>2</value> </property> <property> <!--namenode节点数据存储目录--> <name>dfs.namenode.name.dir</name> <value>/root/hadoopData/name</value> </property> <!--datanode节点数据存储目录--> <property> <name>dfs.datanode.data.dir</name> <value>/root/hadoopData/data</value> </property> <!-- 设置HDFS的文件权限--> <property> <name>dfs.permissions</name> <value>false</value> </property> <property> <name>dfs.datanode.use.datanode.hostname</name> <value>true</value> </property>
在master、slave1、slave2上操作:
vim yarn-env.sh
修改yarn-env.sh中的第23行为JAVA_HOME路径:
export JAVA_HOME=/usr/java/jdk1.8.0_171
vim yarn-site.xml
在< configuration></ configuration>中添加如下内容 :
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
在master、slave1、slave2上操作:
Hadoop集群中没有mapred-site.xml这个文件,因此需要把mapred-site.xml.template复制为mapred-site.xml
cp mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
在< configuration></ configuration>中添加如下内容 :
<!-- 指定MR运行在yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
在master、slave1、slave2上操作:
还是在 /usr/hadoop/hadoop-2.7.3/etc/hadoop 路径下,修改master、slaves文件:
vim master
=== 写入 ===
master
vim slaves
=== 写入 ===
slave1
slave2
在master上操作:
hadoop namenode -format
在master上操作:
start-all.sh start
然后输入 yes 即可启动:
hadoop dfsadmin -report
也可以查看java进程中的namenode和datanode是否启动jps
在master、slave1、slave2上操作:
vim yarn-site.xml
在< configuration></ configuration>中添加如下内容 :
<!-- 指定ResourceManager进程所在主机 -->
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:18141</value>
</property>
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。