spark-streaming -kakfa 问题

数据源在kafka上,如果我设置10秒钟的窗口,但是我处理需要1分钟
1.spark-streaming是不是在我处理完这一10秒钟的数据后才接受下一批数据,还是说过了10秒后不管我这里前十秒数据有没有处理完都会处理当前十秒的数据?
2.spark-streaming 是怎么确认kafka的窗口数据的?是他自己接受下来做判断么?如果这样的话,数据是不是会一直解压在内存中,然后越积累越多

要回复问题请先登录注册