当前位置:   article > 正文

Unable to instantiate SparkSession with Hive support because Hive classes are not found.解决办法

unable to instantiate sparksession with hive support because hive classes ar

在使用scala+sbt开发spark应用程序时,会遇到找不到hive class这个问题。
spark操作hive应该导入spark-hive包。关于spark-hive包,mvnrepository网站的sbt引用区域写的是:
libraryDependencies += “org.apache.spark” %% “spark-hive” % “2.4.4” % "provided"
但是实际上,应该写成libraryDependencies += “org.apache.spark” %% “spark-hive” % “2.4.4” 。再运行后,就不会出现找不到Hive Class的问题了。

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
相关标签
  

闽ICP备14008679号