一次由于八股文引起的内存泄漏 - 阿里技术
阿里妹导读
本文记录两次报错系统监控现象以及作者针对性的排查过程和分析,最终解决了问题的全过程。
文章开头,先分享一张大部分Java开发同学都记在心里的一张图。
没错,就是Spring Bean生命周期图。就因为这张图不熟悉,导致线上环境出现内存泄漏问题,系统频繁FullGC,服务无法响应。
一、第一次报错系统监控现象
关键时间节点:
14:16 机器发布新代码
15:35 机器开始出现fullGC
15:50 机器fullGC耗时上升
17:48 对JVM进行dump操作,然后进行机器置换
由图可知,在14:16发布完成后,系统正常运行了一段时间,期间内存、线程等均未出现异常,不过当系统运行了一段时间后,通过监控可以明显发现内存使用量和线程数都在持续上升,那这样问题就很明确了:
1.有大量阻塞线程
2.存在内存泄露问题
1.1 排查过程
分析线程Dump文件
Dump文件记录
通过截图中Dump文件内容可知,HSFBizProcessor-DEFAULT-9-thread-792 这个线程已经阻塞了116s,并且的阻塞线程共有682个。
1.2 分析原因
根据线程堆栈信息,查到了线程是阻塞在下面这段代码:
@Component
public class OssClient implements BeanPostProcessor {
private OSS ossClient = null;
/**
* 初始化OSS客户端
**/
@Override
public Object postProcessAfterInitialization(Object bean, String beanName) throws BeansException {
// 省略代码……
// 以下是阻塞代码行
ossClient = new OSSClientBuilder().build(ossProperty.getString("endpoint"),
ossProperty.getString("accessKeyId"),
ossProperty.getString("accessKeySecret"),
configuration);
// 省略代码……
return bean;
}
}
这段代码本意是在应用启动时,通过动态配置文件来配置OSS客户端。
但是线程阻塞在了这行,首先我想到可能是由于OSS客户端初始化需要发起网络请求,因为饿了么有张北和南通机房且一般情况下跨机房无法访问,所以第一时间检查了一下配置,果不其然,南通机房配置了张北的OSS。
登录上南通机房的机器,尝试PING张北的OSS域名,发现无法PING通,验证了我的猜测。
1.3 第一次问题解决
Get到了报错原因,就方便解决了;通过修改配置,将OSS机房配置正确后,重启机器即可。
二、第二次报错系统监控现象
本来以为万事大吉,在观察了30分钟,确认系统无BLOCKED线程后,就认为该问题已经解决。
关键时间节点:
19:48 机器发布新代码
22:30 机器开始出现fullGC
23:30 机器fullGC耗时上升
00:30 对JVM进行dump操作,然后进行机器置换
然而,在发布后3个小时以后,系统又开始报错,同样是fullGC,只不过这次fullGC耗时没有之前那么长了。
2.1 排查过程
分析线程Dump文件
因为有了前车之鉴,所以第一步想到的就是上一步的问题没有解决,线程仍然阻塞在刚才的代码处。
不过,这次并没有查询到阻塞线程。这至少证明:
1.阻塞线程确实是由于OSS跨单元拒绝访问导致的
2.还有其他问题导致了内存泄漏
分析GC Dump文件
首先,通过集团Grace工具,发现有严重的内存泄漏问题。
这里显示有11万个org.apache.http.impl.conn.PoolingHttpClientConnectionManager实例,占用了80.42%的堆内存,但是这个类并不是我直接引入的,那么一定是有间接依赖,生成了大量该类对象。
另外,通过类名,能判断这个对象是和网络请求有关系,而我这个应用上需要网络请求的地方有几处:
1.访问DB
2.访问Redis
3.访问OSS
4.进行HSF调用
继续通过对对象依赖进行分析,发现了一个重要信息:
org.apache.http.impl.conn.PoolingHttpClientConnectionManager这个类由OSS间接依赖进来的,确定了引起内存泄漏的罪魁祸首。
2.2 分析原因
虽然定位到了是由于OSS建议依赖进来,但是看代码仍然不能解释为什么会产生内存泄漏。
@Component
public class OssClient implements BeanPostProcessor {
private OSS ossClient = null;
/**
* 初始化OSS客户端
**/
@Override
public Object postProcessAfterInitialization(Object bean, String beanName) throws BeansException {
// 省略代码……
// 一下是阻塞代码行
ossClient = new OSSClientBuilder().build(ossProperty.getString("endpoint"),
ossProperty.getString("accessKeyId"),
ossProperty.getString("accessKeySecret"),
configuration);
// 省略代码……
return bean;
}
}
排查原因过程中,有一篇文章给了我答案,下面是这篇文章给的OOM原因的解释:
每次new OSSClient的时候,都会往List中放入HttpClientConnectionManager,但是没有主动调用OSSClient的shutdown的方法,所以List只会增大不会变小。反观我们的代码,每次接口调用都会创建一个OSSClient对象,但却在使用完之后,没有调用OSSClient的shutdown方法,导致未调用IdleConnectionReaper的removeConnectionManager方法,使得IdleConnectionReaper中静态列表存储的PoolingHttpClientConnectionManager实例数据一直会增长,一直都不会被回收,最终带来的结果就是OOM。
其实通过代码能够看出,我的初衷是在OssClient这个Bean初始化的时候执行一下初始化逻辑,在我查到导致内存泄漏的原因后,我仍然对一个问题很是不解:为什么OSS初始化的代码会被多次执行?
回到文章标题和开头,为什么这篇文章标题叫“一次由于八股文引起的内存泄漏”,以及为什么文章开头会引入下面这张图?
实际上,是由于实现错了接口导致的OSS初始化代码被重复调用,最终导致系统OOM。
2.3 最终问题解决
改变一下实现接口,使代码逻辑符合我预期效果即可,当然这个解决方式有多种多样,下面只是我的一种解决方案。
@Component
public class OssClient implements InitializingBean {
private OSS ossClient = null;
/**
* 初始化OSS客户端
**/
@Override
public void afterPropertiesSet() throws Exception {
// 省略代码……
// 以下是阻塞代码行
ossClient = new OSSClientBuilder().build(ossProperty.getString("endpoint"),
ossProperty.getString("accessKeyId"),
ossProperty.getString("accessKeySecret"),
configuration);
// 省略代码……
}
}
总结
圈内常有声音抱怨,“面试好比是造火箭,而工作不过是拧螺丝”,尤其对于Java开发岗位面试中的常规知识题目持有轻蔑态度。然而,这些被称作“八股文”的知识,实际上是每位开发工程师技术根基的核心。坚实的基础才能确保构建在其之上的高楼大厦能够屹立不倒,历经岁月的洗礼。