val sc = new SparkContext(args(0), "SparkPi",          System.getenv("SPARK_HOME"), SparkContext.jarOfClass(this.getClass)) 其中SparkContext.jarOfClass(this.getClass)在Eclipse和IDEA环境中都要报错,但是,强行忽略错误打包成jar后,在spark环境运行又没有问题。为什么?请教:Scala官网上提

要回复问题请先登录注册