記錄因Sharding Jdbc批量操作引發的一次fullGC

週五晚上告警羣突然收到了一條告警消息,點開一看,應用 fullGC 了。

於是趕緊聯繫運維下載堆內存快照,進行分析。

內存分析

使用 MemoryAnalyzer 打開堆文件

mat 下載地址:https://archive.eclipse.org/mat/1.8/rcp/MemoryAnalyzer-1.8.0.20180604-win32.win32.x86_64.zip

下載下來後需要調大一下 MemoryAnalyzer.ini 配置文件裏的-Xmx2048m

打開堆文件後如圖:

發現有 809MB 的一個佔用,應該問題就出在這塊了。然後點擊 Dominator Tree,看看有什麼大的對象佔用。

我們找大的對象,一級級往下點看看具體是誰在佔用內存。點到下面發現是 sharding jdbc 裏面的類,然後再繼續往下發現了一個 localCache。

原來是一個本地緩存佔了這麼大的空間

爲什麼有這個 LocalCache 呢?

帶着這個疑惑我們去代碼裏看看它是怎麼使用的,根據堆內存分析上的提示,我直接打開了 SQLStatementParserEngine 類。

public final class SQLStatementParserEngine {
    private final SQLStatementParserExecutor sqlStatementParserExecutor;
    private final LoadingCache<String, SQLStatement> sqlStatementCache;

    public SQLStatementParserEngine(String databaseType, SQLParserRule sqlParserRule) {
        this.sqlStatementParserExecutor = new SQLStatementParserExecutor(databaseType, sqlParserRule);
        this.sqlStatementCache = SQLStatementCacheBuilder.build(sqlParserRule, databaseType);
    }

    public SQLStatement parse(String sql, boolean useCache) {
        return useCache ? (SQLStatement)this.sqlStatementCache.getUnchecked(sql) : this.sqlStatementParserExecutor.parse(sql);
    }
}

他這個裏面有個 LoadingCache 類型的 sqlStatementCache 對象,這個就是我們要找的緩存對象。

從 parse 方法可以看出,它這裏是想用本地緩存做一個優化,優化通過 sql 解析 SQLStatement 的速度。

在普通的場景使用應該是沒問題的,但是如果是進行批量操作場景的話就會有問題。

就像下面這個語句:

@Mapper
public interface OrderMapper {

    Integer batchInsertOrder(List<Order> orders);
}

<insert id="batchInsertOrder" parameterType="com.mmc.sharding.bean.Order" >
        insert into t_order (id,code,amt,user_id,create_time)
        values
        <foreach collection="list" item="item" separator=",">
            (#{item.id},#{item.code},#{item.amt},#{item.userId},#{item.createTime})
        </foreach>
    </insert>

1)我傳入的 orders 的個數不一樣,會拼出很多不同的 sql,生成不同的 SQLStatement,都會被放入到緩存中

2)因爲批量操作的拼接,sql 本身長度也很大。如果我傳入的 orders 的 size 是 1000,那麼這個 sql 就很長,也比普通的 sql 更佔用內存。

綜上,就會導致大量的內存消耗,如果是請求速度很快的話,就就有可能導致頻繁的 FullGC。

解決方案

因爲是參數個數不同而導致的拼成 Sql 的不一致,所以我們解決參數個數就行了。

我們可以將傳入的參數按我們指定的集合大小來拆分,即不管傳入多大的集合,都拆爲{300, 200, 100, 50, 25, 10, 5, 2, 1}這裏面的個數的集合大小。如傳入 220 大小的集合,就拆爲[{200},{10},{10}],這樣分三次去執行 sql,那麼生成的 SQL 緩存數也就只有我們指定的固定數字的個數那麼多了,基本不超過 10 個。

接下來我們實驗一下,改造前和改造後的 gc 情況。

測試代碼如下:

 @RequestMapping("/batchInsert")
    public String batchInsert(){
        for (int j = 0; j < 1000; j++) {
            List<Order> orderList = new ArrayList<>();
            int i1 = new Random().nextInt(1000) + 500;
            for (int i = 0; i < i1; i++) {
                Order order=new Order();
                order.setCode("abc"+i);
                order.setAmt(new BigDecimal(i));
                order.setUserId(i);
                order.setCreateTime(new Date());
                orderList.add(order);
            }
            orderMapper.batchInsertOrder(orderList);
            System.out.println(j);
        }

        return "success";
    }

GC 情況如圖所示:

cache 裏面存有元素:

修改代碼後:

@RequestMapping("/batchInsert")
    public String batchInsert(){
        for (int j = 0; j < 1; j++) {
            List<Order> orderList = new ArrayList<>();
            int i1 = new Random().nextInt(1000) + 500;
            for (int i = 0; i < i1; i++) {
                Order order=new Order();
                order.setCode("abc"+i);
                order.setAmt(new BigDecimal(i));
                order.setUserId(i);
                order.setCreateTime(new Date());
                orderList.add(order);
            }
            List<List<Order>> shard = ShardingUtils.shard(orderList);
            shard.stream().forEach(
                    orders->{
                        orderMapper.batchInsertOrder(orders);
                    }
            );
            System.out.println(j);
        }

        return "success";
    }

GC 情況如下:

cache 裏面存有元素:

可以看出 GC 次數有減少,本地緩存的條數由 600 多減到了 11 個,如果導出堆內存還能看出至少降低了幾百 M 的本地內存佔用。

另外,這個 cache 是有大小限制的,如果因爲一個 sql 佔了 600 多個位置,那麼其他的 sql 的緩存就會被清理,導致其他 SQL 性能會受到影響,甚至如果機器本身內存不高,還會因爲這個 cache 過大而導致頻繁的 Full GC

大家以後在使用 Sharding JDBC 進行批量操作的時候就需要多注意了

另附上拆分爲固定大小的數組的工具方法如下:

public class ShardingUtils {


    private static Integer[] nums = new Integer[]{800,500,300, 200, 100, 50, 25, 10, 5, 2, 1};

    public static <T> List<List<T>> shard(final List<T> originData) {
        return shard(originData, new ArrayList<>());
    }

    private static <T> List<List<T>> shard(final List<T> originData, List<List<T>> result) {
        if (originData.isEmpty()) {
            return result;
        }
        for (int i = 0; i < nums.length; i++) {
            if (originData.size() >= nums[i]) {
                List<T> ts = originData.subList(0, nums[i]);
                result.add(ts);
                List<T> ts2 = originData.subList(nums[i], originData.size());
                if (ts2.isEmpty()) {
                    return result;
                } else {
                    return shard(ts2, result);
                }
            }
        }
        return result;
    }
}
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章