spark-streaming消费kafka写hbase代码实战调优

1、处理逻辑

通过新增map集合来提升处理性能

spark-streaming消费kafka写hbase代码实战调优

spark-streaming消费kafka写hbase代码实战调优

2、资源配置

--executor-cores 3 \
--num-executors 5 \
--executor-memory 2G \
--driver-memory 2G \

 

3、测试场景

这个topic有15个分区,并且数据量挺大,所以需要15个core处理,从earliest消费写到测试表,4千万的数据量

第三次测试 spark.streaming.kafka.maxRatePerPartition = 3000 开启反压

每个批次处理4s多,刚好能处理完