Seata 全局鎖等待超時 問題排查

生產環境,一個簡單的事務方法,提交失敗,報 Global lock wait timeout

僞代碼如下:

@GlobalTransactional(rollbackFor = Exception.class,timeoutMills = 30000,lockRetryInternal=3000,lockRetryTimes=10)
@Override
public Boolean cancel(Long id, Long userId, Long companyId) {
    // 保存業務數據
    ...
    // 啓動工作流
    wkflAppServiceProvider.startProcess(....);
    ...
}

 異常如下:

org.springframework.dao.QueryTimeoutException: JDBC commit; Global lock wait timeout; nested exception is io.seata.rm.datasource.exec.LockWaitTimeoutException: Global lock wait timeout
                                                                                             
Caused by: io.seata.rm.datasource.exec.LockWaitTimeoutException: Global lock wait timeout
        at io.seata.rm.datasource.exec.LockRetryController.sleep(LockRetryController.java:63)
        at io.seata.rm.datasource.ConnectionProxy$LockRetryPolicy.doRetryOnLockConflict(ConnectionProxy.java:346)
        at io.seata.rm.datasource.ConnectionProxy$LockRetryPolicy.execute(ConnectionProxy.java:335)
        at io.seata.rm.datasource.ConnectionProxy.commit(ConnectionProxy.java:187)
        at org.springframework.jdbc.datasource.DataSourceTransactionManager.doCommit(DataSourceTransactionManager.java:333)
        ... 57 more
Caused by: io.seata.rm.datasource.exec.LockConflictException: get global lock fail, xid:10.222.248.60:8091:2900686326154883760, lockKeys:wkfl_app_auth:12326192,12326193;act_ge_bytearray:6515890,6515891;act_re_procdef:rediscountClickSubmitCancel_UserTask_0yze6zf_5:1:6515892;act_re_deployment:6515889
        at io.seata.rm.datasource.ConnectionProxy.recognizeLockKeyConflictException(ConnectionProxy.java:159)
        at io.seata.rm.datasource.ConnectionProxy.processGlobalTransactionCommit(ConnectionProxy.java:252)
        at io.seata.rm.datasource.ConnectionProxy.doCommit(ConnectionProxy.java:230)
        at io.seata.rm.datasource.ConnectionProxy.lambda$commit$0(ConnectionProxy.java:188)
        at io.seata.rm.datasource.ConnectionProxy$LockRetryPolicy.doRetryOnLockConflict(ConnectionProxy.java:343)
        ... 60 more

看到“LockWaitTimeoutException: Global lock wait timeout” 我以爲是有資源競爭,導致加鎖等待超時。但這個疑慮很快被打消了,因爲這是必現的一個問題,每次執行到這個方法都報錯,甚至在下班後系統沒有人使用的情況下,我一點,還是報這個錯,這個時候可以確定就我一個人在用,而且查了數據庫沒有被鎖定的數據和事務,所以應該不是資源競爭導致的獲取鎖等待超時。

於是,我開始翻源碼

數據源被代理,本地事務提交走的是io.seata.rm.datasource.ConnectionProxy#commit()

doCommit()方法是放在io.seata.rm.datasource.ConnectionProxy.LockRetryPolicy#execute()中執行的

由於我們這裏client.rm.lock.retryPolicyBranchRollbackOnConflict配置的是false,所以這裏失敗後會重試,如果是true,則不重試

看到這裏,我們找到了“Global lock wait timeout”的出處了,原來是因爲doCommit()執行過程中拋異常了,再重試次數用完後就會拋出LockWaitTimeoutException。因此,LockWaitTimeoutException只是表象,並不是最根本的原因,根本原因是doCommit()報錯了。

接着doCommit()看,我們知道,分支事務提交要先註冊,註冊成功後才能提交。而註冊就是要獲取全局鎖。

通過觀察DEBUG日誌,發現保存業務數據部分的分支註冊都是成功的

日誌太多,截取關鍵部分,如圖所示

結合代碼,發現真正的報錯發生在調用遠程服務啓動工作流那裏

查看工作流相關服務的日誌,發現一開始分支註冊就失敗了,部分關鍵日誌如下

工作流那個服務裏面,分支註冊返回的信息是:Global lock acquire failed xid = ....

幸好之前讀過Seata的源碼,不然此時肯定手足無措

於是,翻開Seata Server的源碼,看看爲什麼返回的消息是這樣的

直接快進到io.seata.server.transaction.at.ATCore#branchSessionLock()

具體參見我的另一篇博文 https://www.cnblogs.com/cjsblog/p/16878067.html

在這裏,我們找到了“Global lock acquire failed”這個報錯信息的出處

證明,在執行branchSession.lock(autoCommit, skipCheckLock)的時候要麼失敗返回false,要麼拋異常了

根據配置,這裏是db,所以是DataBaseLockManager

接下來進入到LockStoreDataBaseDAO#acquireLock()開始真正加鎖了(往表裏插數據)

io.seata.server.storage.db.lock.LockStoreDataBaseDAO#acquireLock(java.util.List<io.seata.core.store.LockDO>, boolean, boolean)

方法太長,不細看了,重點看加鎖的SQL語句

由於用的MySQL,所以是io.seata.core.store.db.sql.lock.MysqlLockStoreSql

最終拼接好的SQL是這樣的:

insert into lock_table (xid, transaction_id, branch_id, resource_id, table_name, pk, row_key, gmt_create, gmt_modified) values (?, ?, ?, ?, ?, ?, ?, now(), now(), ?)

如果插入成功,則返回true,表示加鎖成功,對應的分支事務獲取鎖成功,分支事務註冊成功,皆大歡喜

補充一下,這裏面有很多地方配置項

至此,整個分支事務獲取鎖的邏輯我們都清楚了

接下來,再回頭看看lock_table表的各個列,首先看看怎麼從客戶端傳過來的一個lockKey變成List<LockDO>的

因此,假設客戶端發過來的lockKey是這樣:

offer message: xid=10.222.248.60:8091:2900686326154883760,branchType=AT,resourceId=jdbc:mysql://xxx.xxx.com:23306/newdraft_workflow,lockKey=wkfl_app_auth:12326192,12326193;act_ge_bytearray:6515890,6515891;act_re_procdef:rediscountClickSubmitCancel_UserTask_0yze6zf_5:1:6515892;act_re_deployment:6515889

 那麼這裏得到的List<LockDO>就是這樣的:

LockDO(xid=10.222.248.60:8091:2900686326154883760, transactionId=153490553438167612, branchId=153490553438162971, resourceId=jdbc:mysql://xxx.xxx.com:23306/newdraft_workflow, tableName=wkfl_app_auth, pk=12326192, status=0, rowKey=jdbc:mysql://xxx.xxx.com:23306/newdraft_workflow^^^wkfl_app_auth^^^12326192)
LockDO(xid=10.222.248.60:8091:2900686326154883760, transactionId=153490553438167612, branchId=153490553438162971, resourceId=jdbc:mysql://xxx.xxx.com:23306/newdraft_workflow, tableName=wkfl_app_auth, pk=12326193, status=0, rowKey=jdbc:mysql://xxx.xxx.com:23306/newdraft_workflow^^^wkfl_app_auth^^^12326193)
LockDO(xid=10.222.248.60:8091:2900686326154883760, transactionId=153490553438167612, branchId=153490553438162971, resourceId=jdbc:mysql://xxx.xxx.com:23306/newdraft_workflow, tableName=act_ge_bytearray, pk=6515890, status=0, rowKey=jdbc:mysql://xxx.xxx.com:23306/newdraft_workflow^^^act_ge_bytearray^^^6515890)
LockDO(xid=10.222.248.60:8091:2900686326154883760, transactionId=153490553438167612, branchId=153490553438162971, resourceId=jdbc:mysql://xxx.xxx.com:23306/newdraft_workflow, tableName=act_ge_bytearray, pk=6515891, status=0, rowKey=jdbc:mysql://xxx.xxx.com:23306/newdraft_workflow^^^act_ge_bytearray^^^6515891)
LockDO(xid=10.222.248.60:8091:2900686326154883760, transactionId=153490553438167612, branchId=153490553438162971, resourceId=jdbc:mysql://xxx.xxx.com:23306/newdraft_workflow, tableName=act_re_procdef, pk=rediscountClickSubmitCancel_UserTask_0yze6zf_5:1:6515892, status=0, rowKey=jdbc:mysql://xxx.xxx.com:23306/newdraft_workflow^^^act_re_procdef^^^rediscountClickSubmitCancel_UserTask_0yze6zf_5:1:6515892)
LockDO(xid=10.222.248.60:8091:2900686326154883760, transactionId=153490553438167612, branchId=153490553438162971, resourceId=jdbc:mysql://xxx.xxx.com:23306/newdraft_workflow, tableName=act_re_deployment, pk=6515889, status=0, rowKey=jdbc:mysql://xxx.xxx.com:23306/newdraft_workflow^^^act_re_deployment^^^6515889)

往lock_table表裏就會插入這6條數據,最後查看Seata服務端日誌發現,是由於字段長度問題,導致插入失敗,於是加鎖失敗

原來pk字段長度只有32,row_key字段長度只有128,修改後的只讀長度如上圖所示

 

最後的最後,補充一個知識點

1、在整個全局事務中,每條SQL語句執行的時候都是一樣的流程,先註冊獲取全局鎖,然後才能提交,注意是每條SQL

2、所有的RM在執行本地操作的時候都是一樣的流程,因爲數據源被Seata代理,所以在執行各自本地的邏輯時,設計到數據庫操作的,都是首先更改連接爲非自動提交,然後進行分支註冊,註冊成功後連接可以提交了,最後報告分支狀態。

3、分支註冊會傳lockKey,註冊的過程就是獲取全局鎖的過程,也就是對這些lockKey包含的數據加鎖的過程。如果store.lock.mode=db的話,就是向lock_table表插數據。

4、在整個全局事務執行過程中,有多少次數據庫操作就有多少次分支註冊、提交、報告。因爲每次跟數據庫的交互都要先獲取Connection,最終獲取到的都是ConnectionProxy

5、 所有RM(Resource Manager)本地事務都提交成功的話,整個全局事務算是提交成功了

Connection conn = dataSource.getConnection();
PreparedStatement ps = conn.prepareStatement(sql);
ResultSet rs = ps.executeUpdate();

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章