关于区块链技术高并发可行性的一个疑问

     这几天区块链技术火的有点不正常,这种不正常的热度说白了就是有人在炒作趁热割韭菜。

     区块链技术据说将来可以代替绝大多数的证券、银行等部门的服务器,在交易、数据安全、知识产权保护等方面发挥巨大的作用,是面向未来的技术。

    对于这样前途无量的技术,自己有一个问题没有想明白,想求助大神们解答。

    区块链是一种去中心化的分布式的记账数据库,以集群中的所有个体节点共同记录相互印证来保证数据的防篡改和安全性。但是它也有一个天生的致命弱点——51%攻击,也就是说当一个节点的算力超过集群整体的51%的时候,它所记录的东西就会被当做是正确的,其他的节点都会以它为准进行更新。

    那么,问题就来了:

    (1)如果要保持集群的安全性,就要使集群的节点数量尽可能多;

    (2)N个节点都要同步 ,那么每一个节点都要同步N-1次,当节点多的时候这个量将会非常可观。比如,对于证券交易,几千万的账户需要同时更新,那么每一台电脑几乎都要当做服务器与N-1个其他节点相互通信,但这样的性能单机是无论如何也无法达到的,就算是阿里的云服务器集群也只是刚刚能够扛下双十一的峰值。如果要同步N-1个节点的数据那么时间延迟可能就会很大。

    问题就是,区块链在安全性与性能之间怎样取舍? 或者说在集群节点足够多的时候,怎样保证同步的实时性?

 

 

 

    据说,一些加密货币因为节点太多,交易确认过程将近一天。那么这样的话,如果进一步增大交易网络节点个数,这个交易还能及时完成吗?

 

 

 

 

 

 

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章