当前位置:   article > 正文

IDEA 创建scala spark的Mvn项目_idea 创建一个 scala +spark的maven项目

idea 创建一个 scala +spark的maven项目

IDEA 创建scala spark的Mvn项目

对人工智能感兴趣的同学,可以点击以下链接:

现在人工智能非常火爆,很多朋友都想学,但是一般的教程都是为博硕生准备的,太难看懂了。最近发现了一个非常适合小白入门的教程,不仅通俗易懂而且还很风趣幽默。所以忍不住分享一下给大家。点这里可以跳转到教程。

https://www.cbedai.net/u014646662

1.创建一个简单的Mvn项目

1.1新建项目File -> new -> project -> Maven

1.2  点击下一步,填写gid和aid

1.3 点击下一步,点击完成

mvn项目就建好了

1.4 不要忘记你的Mvn配置(File -> Setting 搜索Maven)

2 添加依赖(配置要和你的环境一致)

  1. <properties>
  2. <scala.version>2.10.5</scala.version>
  3. <hadoop.version>2.6.5</hadoop.version>
  4. </properties>
  5. <repositories>
  6. <repository>
  7. <id>scala-tools.org</id>
  8. <name>Scala-Tools Maven2 Repository</name>
  9. <url>http://scala-tools.org/repo-releases</url>
  10. </repository>
  11. </repositories>
  12. <dependencies>
  13. <dependency>
  14. <groupId>org.apache.spark</groupId>
  15. <artifactId>spark-core_2.10</artifactId>
  16. <version>1.6.0</version>
  17. </dependency>
  18. <dependency>
  19. <groupId>org.apache.spark</groupId>
  20. <artifactId>spark-sql_2.10</artifactId>
  21. <version>1.6.0</version>
  22. </dependency>
  23. <dependency>
  24. <groupId>org.apache.spark</groupId>
  25. <artifactId>spark-streaming_2.10</artifactId>
  26. <version>1.6.0</version>
  27. </dependency>
  28. <dependency>
  29. <groupId>org.apache.hadoop</groupId>
  30. <artifactId>hadoop-client</artifactId>
  31. <version>${hadoop.version}</version>
  32. </dependency>
  33. <dependency>
  34. <groupId>org.apache.hadoop</groupId>
  35. <artifactId>hadoop-common</artifactId>
  36. <version>${hadoop.version}</version>
  37. </dependency>
  38. <dependency>
  39. <groupId>org.apache.hadoop</groupId>
  40. <artifactId>hadoop-hdfs</artifactId>
  41. <version>${hadoop.version}</version>
  42. </dependency>

3.添加Scala libraries

File -> Project Structure

选择对应的版本(第一次选择应该下载,不过下载很慢,建议去官网下载Scala,然后选择目录)

点击 OK

项目下就引入scala

4. 配置hadoop,配置hadoop-common-2.6.0-bin,以免出现null/winutils

hadoop-common-2.6.0-bin下载https://download.csdn.net/download/u014646662/10816318

配置环境变量:

5.可以写scala程序了

6 编写Scala类

  1. package cn.com.tengen.test
  2. import java.util.Scanner
  3. import org.apache.spark.SparkContext
  4. import org.apache.spark.SparkConf
  5. class ScalaSparkContext(appName:String="Spark"){
  6. val sc:SparkContext = getSparkContext()
  7. def getSparkContext() = {
  8. val conf = new SparkConf().setAppName(appName)
  9. conf.setMaster("local")
  10. val sc = new SparkContext(conf)
  11. sc
  12. }
  13. def stop() = {
  14. println("按回车键结束:")
  15. val in = new Scanner(System.in)
  16. in.nextLine()
  17. sc.stop()
  18. }
  19. }
  20. object ScalaSparkContext {
  21. def main(args: Array[String]) {
  22. val sparkContext = new ScalaSparkContext()
  23. val sc = sparkContext.sc
  24. val input = sc.textFile("F:\\stoke_data\\2018-10-08-09-32-44.txt").map(_.toLowerCase)
  25. input
  26. .flatMap(line => line.split("[,]"))
  27. .map(word => (word, 1))
  28. .reduceByKey((count1, count2) => count1 + count2)
  29. .saveAsTextFile("aaaa")
  30. sparkContext.stop()
  31. }
  32. }

运行后,在控制台中可以看到:

  1. 18/11/29 14:46:01 INFO Utils: Successfully started service 'SparkUI' on port 4040.
  2. 18/11/29 14:46:01 INFO SparkUI: Started SparkUI at http://172.16.66.1:4040

就进入web页面

注意:在sc.stop前可以访问

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/746648
推荐阅读
相关标签
  

闽ICP备14008679号