通過 jstack 與 jmap 分析線上故障

一、發現問題

下面是線上機器的cpu使用率,可以看到從4月8日開始,隨着時間cpu使用率在逐步增高,最終使用率達到100%導致線上服務不可用,後面重啓了機器後恢復。

二、排查思路

簡單分析下可能出問題的地方,分爲5個方向:

  1. 系統本身代碼問題
  2. 內部下游系統的問題導致的雪崩效應
  3. 上游系統調用量突增
  4. http請求第三方的問題
  5. 機器本身的問題

三、開始排查

  1. 查看日誌,沒有發現集中的錯誤日誌,初步排除代碼邏輯處理錯誤。
  2. 首先聯繫了內部下游系統觀察了他們的監控,發現一起正常。可以排除下游系統故障對我們的影響。
  3. 查看provider接口的調用量,對比7天沒有突增,排除業務方調用量的問題。
  4. 查看tcp監控,TCP狀態正常,可以排除是http請求第三方超時帶來的問題。
  5. 查看機器監控,6臺機器cpu都在上升,每個機器情況一樣。排除機器故障問題。

即通過上述方法沒有直接定位到問題。

四、解決方案

1.重啓了6臺中問題比較嚴重的5臺機器,先恢復業務。保留一臺現場,用來分析問題。

2.查看當前的tomcat線程pid

3.查看該pid下線程對應的系統佔用情況。top -Hp 384

4.發現pid 4430 4431 4432 4433 線程分別佔用了約40%的cpu

5.將這幾個pid轉爲16進制,分別爲114e 114f 1150 1151

6.下載當前的java線程棧 sudo -u tomcat jstack -l 384>/1.txt

7.查詢5中對應的線程情況,發現都是gc線程導致的 

8.dump java堆數據

sudo -u tomcat jmap -dump:live,format=b,file=/dump201612271310.dat 384

9.使用MAT加載堆文件,可以看到javax.crypto.JceSecurity對象佔用了95%的內存空間,初步定位到問題。

MAT下載地址:http://www.eclipse.org/mat/

 10.查看類的引用樹,看到BouncyCastleProvider對象持有過多。即我們代碼中對該對象的處理方式是錯誤的,定位到問題。

五、代碼分析

我們代碼中有一塊是這樣寫的

這是加解密的功能,每次運行加解密都會new一個BouncyCastleProvider對象,放倒Cipher.getInstance()方法中。

 

看下Cipher.getInstance()的實現,這是jdk的底層代碼實現,追蹤到JceSecurity類中

verifyingProviders每次put後都會remove,verificationResults只會put,不會remove.

看到verificationResults是一個static的map,即屬於JceSecurity類的。

所以每次運行到加解密都會向這個map put一個對象,而這個map屬於類的維度,所以不會被GC回收。這就導致了大量的new的對象不被回收。

六、代碼改進

將有問題的對象置爲static,每個類持有一個,不會多次新建。

七、本文總結

遇到線上問題不要慌,首先確認排查問題的思路:

  1. 查看日誌
  2. 查看CPU情況
  3. 查看TCP情況
  4. 查看java線程,jstack
  5. 查看java堆,jmap
  6. 通過MAT分析堆文件,尋找無法被回收的對象
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章