当前位置:   article > 正文

spark 安装与使用 educoder_spark的安装与使用educoder答案

spark的安装与使用educoder答案

大致顺序是这样,仅供参考,欢迎指正!命令行不能直接复制,所以出错的可能比较大。

第一关:

  1. mkdir /app
  2. cd /opt
  3. tar -zxvf scala-2.12.7.tgz -C /app
  4. vi /etc/profile
  5. SCALA_HOME=/app/scala-2.12.7
  6. export PATH =$PATH:$SCALA_HOME/bin
  7. cd /app
  8. cd scala-2.12.7
  9. scala -version

第2关:安装与配置Spark开发环境

  1. mkdir /app
  2. cd /opt
  3. tar -zxvf spark-2.2.2-bin-hadoop2.7.tgz -C /app
  4. vim /etc/profile
  5. SPARK_HOME=/app/spark-2.2.2-bin-hadoop2.7
  6. export PATH=$PATH:$SPARK_HOME/bin
  7. cd /app/spark-2.2.2-bin-hadoop2.7/conf
  8. cp spark-env.sh.template spark-env.sh
  9. hostname(复制完替换到下文中的machine_name)
  10. vim spark-env.sh
  11. export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_111
  12. export SCALA_HOME=/app/scala-2.12.7
  13. export HADOOP_HOME=/usr/local/hadoop/
  14. export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
  15. export SPARK_MASTER_IP=machine_name # machine_name 根据自己的主机确定
  16. export SPARK_LOCAL_IP=machine_name # machine_name 根据自己的主机确定(hostname一下将自己的主机号替换!!!!!)
  17. cd /app/spark-2.2.2-bin-hadoop2.7
  18. ./sbin/start-all.sh
  19. jps

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小惠珠哦/article/detail/790850
推荐阅读
相关标签
  

闽ICP备14008679号