sqoop 从mysql导入hive hive 表锁问题

当sqoop到数据到hive表A时,hive表如果正在查询,会有个共享锁!,如果这个锁不释放sqoop任务将无法成功,然后重试100次。 那么问题来了,如果这个表一直在被不同的人使用!那么sqoop将根本无法同步,这个有什么办法解决或者折中解决的啊!
Unable to acquire IMPLICIT, EXCLUSIVE lock cpd@t_app_info after 100 attempts.
FAILED: Error in acquiring locks: Locks on the underlying objects cannot be acquired. retry after some time

fish - Hadooper

赞同来自:

在业务层面解决吧,导入表成功之前,暂停直接对Hive表的读请求,或者先用缓存提供服务。

要回复问题请先登录注册