hive on spark 动态分区异常

在spark上跑hql,,将数据从A表导入到B表,B表是动态分区表,,
在hive-site.xml配置了:set hive.exec.max.dynamic.partitions=500000,
查看:hive -e"set hive.exec.max.dynamic.partitions" 输出为hive.exec.max.dynamic.partitions=500000
但是再次跑hql时,输出信息说hive.exec.max.dynamic.partitions=1000,为什么呢?
似乎hive.exec.max.dynamic.partitions未能生效,,除了在hive的配置文件之hive-site.xml进行更改外,还有哪里需要配置吗?

xxluping

赞同来自:

看下你在配置文件中怎么配置的

小象老师

赞同来自:

配置文件中怎么配置的,请发下截图。

fish - Hadooper

赞同来自:

Spark 中是否对hive的配置进行了覆盖?

要回复问题请先登录注册