当前位置:   article > 正文

openEuler搭建hadoop Standalone 模式

openEuler搭建hadoop Standalone 模式

Standalone

  1. 升级软件
  2. 安装常用软件
  3. 关闭防火墙
  4. 修改主机名和IP地址
  5. 修改hosts配置文件
  6. 下载jdk和hadoop并配置环境变量
  7. 配置ssh免密钥登录
  8. 修改配置文件
  9. 初始化集群
  10. windows修改hosts文件
  11. 测试

1、升级软件

yum -y update
  • 1

2、安装常用软件

yum -y install gcc gcc-c++ autoconf automake cmake make \
 zlib zlib-devel openssl openssl-devel pcre-devel \
 rsync openssh-server vim man zip unzip net-tools tcpdump lrzsz tar wget
  • 1
  • 2
  • 3

3、关闭防火墙

sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config
setenforce 0
  • 1
  • 2
systemctl stop firewalld
systemctl disable firewalld
  • 1
  • 2

4、修改主机名和IP地址

hostnamectl set-hostname hadoop
  • 1
vim /etc/sysconfig/network-scripts/ifcfg-ens32
  • 1

参考如下:

TYPE=Ethernet
PROXY_METHOD=none
BROWSER_ONLY=no
BOOTPROTO=none
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=eui64
NAME=ens32
UUID=55e7ac28-39d7-4f24-b6bf-0f9fb40b7595
DEVICE=ens32
ONBOOT=yes
IPADDR=192.168.10.24
PREFIX=24
GATEWAY=192.168.10.2
DNS1=192.168.10.2
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19

5、修改hosts配置文件

vim /etc/hosts
  • 1

修改内容如下:

192.168.10.24	hadoop
  • 1

重启系统

reboot
  • 1

6、下载jdk和hadoop并配置环境变量

创建软件目录

mkdir -p /opt/soft 
  • 1

进入软件目录

cd /opt/soft
  • 1

下载 JDK

    下载 hadoop

    wget https://dlcdn.apache.org/hadoop/common/hadoop-3.3.6/hadoop-3.3.6.tar.gz
    
    • 1

    解压 JDK 修改名称

    tar -zxvf jdk-8u411-linux-x64.tar.gz
    
    • 1
    mv jdk1.8.0_411 jdk-8
    
    • 1

    解压 hadoop 修改名称

    tar -zxvf hadoop-3.3.6.tar.gz
    
    • 1
    mv hadoop-3.3.6 hadoop-3
    
    • 1

    配置环境变量

    vim /etc/profile.d/my_env.sh
    
    • 1

    编写以下内容:

    export JAVA_HOME=/opt/soft/jdk-8
    
    export HDFS_NAMENODE_USER=root
    export HDFS_SECONDARYNAMENODE_USER=root
    export HDFS_DATANODE_USER=root
    export HDFS_ZKFC_USER=root
    export HDFS_JOURNALNODE_USER=root
    export HADOOP_SHELL_EXECNAME=root
    
    export YARN_RESOURCEMANAGER_USER=root
    export YARN_NODEMANAGER_USER=root
    
    export HADOOP_HOME=/opt/soft/hadoop-3
    export HADOOP_INSTALL=$HADOOP_HOME
    export HADOOP_MAPRED_HOME=$HADOOP_HOME
    export HADOOP_COMMON_HOME=$HADOOP_HOME
    export HADOOP_HDFS_HOME=$HADOOP_HOME
    export YARN_HOME=$HADOOP_HOME
    export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
    export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native
    
    export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23

    生成新的环境变量

    source /etc/profile
    
    • 1

    7、配置ssh免密钥登录

    创建本地秘钥并将公共秘钥写入认证文件

    ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
    
    • 1
    ssh-copy-id root@hadoop
    
    • 1

    8、修改配置文件

    hadoop-env.sh

    core-site.xml

    hdfs-site.xml

    workers

    mapred-site.xml

    yarn-site.xml

    hadoop-env.sh

    文档末尾追加以下内容:

    export JAVA_HOME=/opt/soft/jdk-8
    
    export HDFS_NAMENODE_USER=root
    export HDFS_SECONDARYNAMENODE_USER=root
    export HDFS_DATANODE_USER=root
    export HDFS_ZKFC_USER=root
    export HDFS_JOURNALNODE_USER=root
    export HADOOP_SHELL_EXECNAME=root
    
    export YARN_RESOURCEMANAGER_USER=root
    export YARN_NODEMANAGER_USER=root
    
    export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14

    core-site.xml

    <?xml version="1.0" encoding="UTF-8"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    <configuration>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://hadoop:9000</value>
        </property>
        <property>
            <name>hadoop.tmp.dir</name>
            <value>/home/hadoop_data</value>
        </property>
        <property>
            <name>hadoop.http.staticuser.user</name>
            <value>root</value>
        </property>
        <property>
            <name>dfs.permissions.enabled</name>
            <value>false</value>
        </property>
        <property>
            <name>hadoop.proxyuser.root.hosts</name>
            <value>*</value>
        </property>
        <property>
            <name>hadoop.proxyuser.root.groups</name>
            <value>*</value>
        </property>
    </configuration>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28

    hdfs-site.xml

    <?xml version="1.0" encoding="UTF-8"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    <configuration>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
        <property>
          <name>dfs.namenode.secondary.http-address</name>
          <value>hadoop:9868</value>
        </property>
    </configuration>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    workers

    注意:

    hadoop2.x中该文件名为slaves

    hadoop3.x中该文件名为workers

    hadoop
    
    • 1

    mapred-site.xml

    <?xml version="1.0"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    <configuration>
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
        <property>
            <name>mapreduce.application.classpath</name>
            <value>$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*:$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*</value>
        </property>
    </configuration>
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13

    yarn-site.xml

    <?xml version="1.0"?>
    <configuration>
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
        <property>
            <name>yarn.nodemanager.env-whitelist</name>
            <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_HOME,PATH,LANG,TZ,HADOOP_MAPRED_HOME</value>
        </property>
    </configuration>
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    9、初始化集群

    # 格式化文件系统
    hdfs namenode -format
    # 启动 NameNode SecondaryNameNode DataNode 
    start-dfs.sh
    # 查看启动进程
    jps
    # 看到 DataNode SecondaryNameNode NameNode 三个进程代表启动成功
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    # 启动 ResourceManager daemon 和 NodeManager
    start-yarn.sh
    # 看到 DataNode NodeManager SecondaryNameNode NameNode ResourceManager 五个进程代表启动成功
    
    • 1
    • 2
    • 3

    重点提示:

    # 关机之前 依关闭服务
    stop-yarn.sh
    stop-dfs.sh
    # 开机后 依次开启服务
    start-dfs.sh
    start-yarn.sh
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    或者

    # 关机之前关闭服务
    stop-all.sh
    # 开机后开启服务
    start-all.sh
    
    • 1
    • 2
    • 3
    • 4
    #jps 检查进程正常后开启胡哦关闭在再做其它操作
    
    • 1

    10、修改windows下hosts文件

    C:\Windows\System32\drivers\etc\hosts

    追加以下内容:

    192.168.171.10	hadoop
    
    • 1

    Windows11 注意 修改权限

    1. 开始搜索 cmd

      找到命令头提示符 以管理身份运行

      在这里插入图片描述
      在这里插入图片描述

    2. 进入 C:\Windows\System32\drivers\etc 目录

      cd drivers/etc
      
      • 1

      在这里插入图片描述

    3. 打开 hosts 配置文件

      start hosts
      
      • 1

      attrib

      在这里插入图片描述

    4. 追加以下内容后保存

      192.168.10.24	hadoop
      
      • 1

    11、测试

    11.1 浏览器访问hadoop

    浏览器访问: http://hadoop:9870

    namenode

    浏览器访问:http://hadoop:9868/

    secondary namenode

    浏览器访问:http://hadoop:8088

    resourcemanager

    11.2 测试 hdfs

    本地文件系统创建 测试文件 wcdata.txt

    vim wcdata.txt
    
    • 1
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    FlinkHBase Flink
    Hive StormHive Flink HadoopHBase
    HiveHadoop Spark HBase StormHBase
    Hadoop Hive FlinkHBase Flink Hive StormHive
    Flink HadoopHBase Hive
    Spark HBaseHive Flink
    Storm Hadoop HBase SparkFlinkHBase
    StormHBase Hadoop Hive
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60
    • 61
    • 62
    • 63
    • 64
    • 65
    • 66
    • 67
    • 68
    • 69
    • 70
    • 71
    • 72
    • 73
    • 74
    • 75
    • 76
    • 77
    • 78
    • 79
    • 80
    • 81
    • 82
    • 83
    • 84
    • 85
    • 86
    • 87
    • 88
    • 89
    • 90
    • 91
    • 92
    • 93
    • 94
    • 95
    • 96
    • 97
    • 98
    • 99
    • 100
    • 101
    • 102
    • 103
    • 104
    • 105
    • 106
    • 107
    • 108
    • 109
    • 110
    • 111
    • 112
    • 113
    • 114
    • 115
    • 116
    • 117
    • 118
    • 119
    • 120
    • 121
    • 122
    • 123
    • 124
    • 125
    • 126
    • 127
    • 128
    • 129
    • 130
    • 131
    • 132
    • 133
    • 134
    • 135
    • 136
    • 137
    • 138
    • 139
    • 140
    • 141
    • 142
    • 143
    • 144
    • 145
    • 146
    • 147
    • 148
    • 149
    • 150
    • 151
    • 152
    • 153
    • 154
    • 155
    • 156
    • 157
    • 158
    • 159
    • 160
    • 161
    • 162
    • 163
    • 164
    • 165
    • 166
    • 167
    • 168
    • 169
    • 170
    • 171
    • 172
    • 173
    • 174
    • 175
    • 176
    • 177
    • 178
    • 179
    • 180
    • 181
    • 182
    • 183
    • 184
    • 185
    • 186
    • 187
    • 188
    • 189
    • 190
    • 191
    • 192
    • 193
    • 194
    • 195
    • 196
    • 197
    • 198
    • 199
    • 200
    • 201
    • 202
    • 203
    • 204
    • 205
    • 206
    • 207
    • 208
    • 209
    • 210
    • 211
    • 212
    • 213
    • 214
    • 215
    • 216
    • 217
    • 218
    • 219
    • 220
    • 221
    • 222
    • 223
    • 224

    在 HDFS 上创建目录 /wordcount/input

    hdfs dfs -mkdir -p /wordcount/input
    
    • 1

    查看 HDFS 目录结构

    hdfs dfs -ls /
    
    • 1
    hdfs dfs -ls /wordcount
    
    • 1
    hdfs dfs -ls /wordcount/input
    
    • 1

    上传本地测试文件 wcdata.txt 到 HDFS 上 /wordcount/input

    hdfs dfs -put wcdata.txt /wordcount/input
    
    • 1

    检查文件是否上传成功

    hdfs dfs -ls /wordcount/input
    
    • 1
    hdfs dfs -cat /wordcount/input/wcdata.txt
    
    • 1
    11.3 测试 mapreduce

    计算 PI 的值

    hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar pi 10 10
    
    • 1

    单词统计

    hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /wordcount/input/wcdata.txt /wordcount/result
    
    • 1
    hdfs dfs -ls /wordcount/result
    
    • 1
    hdfs dfs -cat /wordcount/result/part-r-00000
    
    • 1

    dcount

    
    ```bash
    hdfs dfs -ls /wordcount/input
    
    • 1
    • 2
    • 3

    上传本地测试文件 wcdata.txt 到 HDFS 上 /wordcount/input

    hdfs dfs -put wcdata.txt /wordcount/input
    
    • 1

    检查文件是否上传成功

    hdfs dfs -ls /wordcount/input
    
    • 1
    hdfs dfs -cat /wordcount/input/wcdata.txt
    
    • 1
    11.3 测试 mapreduce

    计算 PI 的值

    hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar pi 10 10
    
    • 1

    单词统计

    hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /wordcount/input/wcdata.txt /wordcount/result
    
    • 1
    hdfs dfs -ls /wordcount/result
    
    • 1
    hdfs dfs -cat /wordcount/result/part-r-00000
    
    • 1
    声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/码创造者/article/detail/768781
    推荐阅读
    相关标签
      

    闽ICP备14008679号