關於區塊鏈技術高併發可行性的一個疑問

     這幾天區塊鏈技術火的有點不正常,這種不正常的熱度說白了就是有人在炒作趁熱割韭菜。

     區塊鏈技術據說將來可以代替絕大多數的證券、銀行等部門的服務器,在交易、數據安全、知識產權保護等方面發揮巨大的作用,是面向未來的技術。

    對於這樣前途無量的技術,自己有一個問題沒有想明白,想求助大神們解答。

    區塊鏈是一種去中心化的分佈式的記賬數據庫,以集羣中的所有個體節點共同記錄相互印證來保證數據的防篡改和安全性。但是它也有一個天生的致命弱點——51%攻擊,也就是說當一個節點的算力超過集羣整體的51%的時候,它所記錄的東西就會被當做是正確的,其他的節點都會以它爲準進行更新。

    那麼,問題就來了:

    (1)如果要保持集羣的安全性,就要使集羣的節點數量儘可能多;

    (2)N個節點都要同步 ,那麼每一個節點都要同步N-1次,當節點多的時候這個量將會非常可觀。比如,對於證券交易,幾千萬的賬戶需要同時更新,那麼每一臺電腦幾乎都要當做服務器與N-1個其他節點相互通信,但這樣的性能單機是無論如何也無法達到的,就算是阿里的雲服務器集羣也只是剛剛能夠扛下雙十一的峯值。如果要同步N-1個節點的數據那麼時間延遲可能就會很大。

    問題就是,區塊鏈在安全性與性能之間怎樣取捨? 或者說在集羣節點足夠多的時候,怎樣保證同步的實時性?

 

 

 

    據說,一些加密貨幣因爲節點太多,交易確認過程將近一天。那麼這樣的話,如果進一步增大交易網絡節點個數,這個交易還能及時完成嗎?

 

 

 

 

 

 

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章