赞
踩
OS:Ubuntu 12.04
Hadoop:Hadoop-2.7.1自己编译版本
问题:文件不能拷贝到HDFS 的问题,也就是HDFS的DataNode没有正常加载。
解决方法
1)关闭Hadoop
bin/stop-all.sh
2) 关闭防火墙 [1]
sudo ufw disable
3) 检查是否注释掉所有DataNode节点/etc/hosts中的127.0.0.1和IPv6等配置,细节如下:
#127.0.1.1 bigdatatest-x.localdomain bigdatatest-x
#127.0.0.1 localhost
# The following lines are desirable for IPv6 capable hosts
#::1 ip6-localhost ip6-loopback
#fe00::0 ip6-localnet
#ff00::0 ip6-mcastprefix
#ff02::1 ip6-allnodes
#ff02::2 ip6-allrouters
#ff02::3 ip6-allhosts
10.0.xx.xx bigdatatest-1
10.0.xx.xx bigdatatest-2
4)检查${Hadoop_Home}/etc/hadoop下的配置文件
特别是slaves、core-sites.xml中master设置、yarn-site.xml中yarn.resourcemanager.hostname的设置
5)重启Hadoop HDFS,重新部署hadoop到所有的master节点和slaves节点
bin/start-dfs.sh
如果还没有解决,HDFS上没有重要数据,仅仅用于测试目的的话,可以考虑最原始的办法,删除所有DataNode存放DFS的目录,重新初始化HDFS。
如"/data/hadoop-2.7.0"
#for each DataNode(Slaves)
cd /data/hadoop-2.7.0"
rm -rf dfs
#in NameNode
/bin/hadoop name -format.
/sbin/start-dfs.sh
[1] Hadoop异常 hdfs.DFSClient: DataStreamer Exception: org.apache.hadoop.ipc.RemoteException
, http://blog.csdn.net/jokes000/article/details/7707398
[2]Ubuntu12.04下hadoop-2.7.0编译-配置, http://blog.csdn.net/liliang199/article/details/46892331
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。