当前位置:   article > 正文

Windows 安装Hadoop和spark_windows安装hadoop-spark环境

windows安装hadoop-spark环境

1 安装hadoop

下载hadoop
下载地址
下载之后解压,然后
下载winutils对应hadoop版本替代hadoop/bin目录

配置环境:
在路径…\hadoop-2.8.3\etc\hadoop下修改文件

(1) core-site.xml(配置默认hdfs的访问端口)

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>    
</configuration>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

(2) hdfs-site.xml(设置复制数为1,即不进行复制。namenode文件路径以及datanode数据路径。)

<configuration>
    <property>
        <
  • 1
  • 2
本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号