sparkR: 创建实例时出错 'org.apache.spark.sql.hive.HiveSessionState':
我在尝试使用时努力解决这个问题 sparkR.
我希望这是一个明确的决定,我是新的 spark 我什么都不知道 java scala. 非常感谢!
sparkR.session/master = "local[*]", sparkConfig = list/spark.driver.memory = "1g"//
Error in handleErrors/returnStatus, conn/ :
java.lang.IllegalArgumentException: Error while instantiating 'org.apache.spark.sql.hive.HiveSessionState':
at org.apache.spark.sql.SparkSession$.org$apache$spark$sql$SparkSession$$reflect/SparkSession.scala:981/
at org.apache.spark.sql.SparkSession.sessionState$lzycompute/SparkSession.scala:110/
at org.apache.spark.sql.SparkSession.sessionState/SparkSession.scala:109/
at org.apache.spark.sql.api.r.SQLUtils$$anonfun$setSparkContextSessionConf$2.apply/SQLUtils.scala:67/
at org.apache.spark.sql.api.r.SQLUtils$$anonfun$setSparkContextSessionConf$2.apply/SQLUtils.scala:66/
at scala.collection.TraversableLike$WithFilter$$anonfun$foreach$1.apply/TraversableLike.scala:733/
at scala.collection.Iterator$class.foreach/Iterator.scala:893/
at scala.collection.AbstractIterator.foreach/Iterator.scala:1336/
at scala.collection.IterableLike$class.foreach/IterableLike.scala:72/
at scala.collection.AbstractIterable.foreach/Iterable.scala:54/
at scala.collection.Traversabl
我希望这是一个明确的决定,我是新的 spark 我什么都不知道 java scala. 非常感谢!
没有找到相关结果
已邀请:
2 个回复
窦买办
赞同来自:
1/ 发射 sparkR 从目录中,您有必要的权利 /先决条件:文件夹 spark bin 必须包含在变量中 PATH env:
/:
2/ 跑步 sparkR 有特权 sudo:
三叔
赞同来自:
来自环境变量