spark Unable to reach the cluster manager to request 2 total executors!

大家好,我用的是pyspark调用spark sql,把上百G的文件存成临时表,查询。结果提交的时候不停出现下面的图片:

E{`T9CZHQO0N[HT)B~831.png

 
检查了每一步的rdd,都打印了对应rdd.first(),rdd都是有数据的。请问这个应该怎么解决?谢谢啦

要回复问题请先登录注册