定位oom发生的位置
明确发生OOM的位置是在executor端还是driver端。
先来看driver端
dirver主要是负责任务的调度,参与少量的任务计算。大部分情况下如果发生driver端的oom应该是参与少量的任务计算导致的。
少量的任务计算是什么呢?
具体来说包括两部分:
1、创建数据集,例如makerdd等方法创建rdd。
2、收集计算结果,例如collect操作,讲所有结果数据拉取到driver端,这也是最容易造成driver端oom的。这里有一点比较容易被忽视,就是创建广播变量。创建广播变量的原理是首先把各个executor中的数据汇总起来,在driver端构建广播变量,然后再分发出去。这里汇总起来本质上就是collect。
报错信息通常是:
java.lang.OutOfMemoryError: Not enough memory to build and broadcast
我们需要评估数据集大小然后通过spark.driver.memory配置项更改driver端内存大小
再来看看executor端
大家指导executor分为四块内存,分别是reserved、storage、execution、user ,其中reserved是预留空间默认是300m,一般不受用户控制,storage部分即使空间不够也会根据cache策略选择落盘或者丢弃,所以不存在oom。
usermemory:User Memory 用于存储用户自定义的数据结构,如果这些数据结构的总大小超出了 User Memory 内存区域的上限,你可能就会看到下表示例中的报错。
java.lang.OutOfMemoryError: Java heap space at java.util.Arrays.copyOf
java.lang.OutOfMemoryError: Java heap space at java.lang.reflect.Array.newInstance
解决 User Memory 端 OOM 的思路和 Driver 端的并无二致,也是先对数据结构的消耗进行预估,然后相应地扩大 User Memory 的内存配置
Execution Memory 的 OOM
核心还是要数据分片与execution memory大小匹配。
此区域常出现oom的场景有以下两种。
1、数据倾斜
数据倾斜对应数据倾斜的处理方式
2、磁盘数据膨胀
磁盘数据加载到内存中 可能会发生膨胀,这个需要提前考虑到,解决办法就是加大内存配置,结合 Executor 线程池调整,提高 1/N 上限