>> word.first()报错:java.net.ConnectException: Ca..._用tf接口读取hdfs数据时,出现connect">
赞
踩
公司的hadoop集群是之前的同事搭建的,我(小白一个)在spark shell中读取hdfs上的文件时,执行以下指令
- >>> word=sc.textFile("hdfs://localhost:9000/user/hadoop/test.txt")
- >>> word.first()
报错:java.net.ConnectException: Call From hadoop/133.0.123.130 to localhost:9000 failed on connection exception: java.net.ConnectException: Connection refuse。看来是hdfs与本地服务器连接出了问题,我又查看了以下hdfs上的文件,发现可以正常查看,这说明本地服务器与hdfs的连接、通信是没有问题的!思来想去,我有换另外一种方式读取hdfs上的文件
- >>> word=sc.textFile("/user/hadoop/test.txt")
- >>> word.first()
因为spark中默认读取的就是hdfs上的文件,因此这种方式也是可以的,结果发现运行正常,这下问题就明了了,是“localhost:9000”出了问题,我查看了hadoop/etc/core-site.xml中端口设置
显示端口设置正
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。