简版 区块链本质论(3): 性能本质之吞吐量

区块链本质论

区块链被大家关注件好事情,但非常不希望看到各种区块链项目盲目上马,造成各种社会资源的浪费。区块链技术本身尚在发展阶段,还有很多核心技术问题有待突破,对区块链技术本质还充斥着各种不同的理解。后面几天我们将就区块链的计算本质,技术难点,业务调整,社会影响等方面和大家分享。

(3) 性能: 吞吐量、确认延迟和状态容量

咱买个电脑,大家都知道要看处理器(CPU)的速度,每秒能处理多少指令;也会要看内存容量,这基本上决定了我们能同时开多少个应用,打开多大的文件并且不卡。区块链系统,也是类似,吞吐量类似于一台电脑的CPU处理速度,决定了每秒可以处理多少个交易;而状态容量类似于一台电脑的内存容量,决定了整个系统可以承载多少个用户(地址)在各个应用里面的状态。

Web3游戏创作者Pixelcraft Studios筹集3000万美元代币融资:金色财经报道,元宇宙游戏Aavegotchi创作者Pixelcraft Studios周一表示,他们在多年的代币销售中筹集了3000万美元。据称,该轮融资是今年迄今为止Web3游戏领域最大的一轮融资,没有任何风险资本或投资者参与。Pixelcraft Studios表示,他们将获得25%的资金,即750万美元,而协议的去中心化自治组织资金将获得剩余的2250万美元。

Pixelcraft Studios于2020年9月开始销售其原生Aavegotchi代币GHST。使用以太坊创始人Vitalik Buterin创建的去中心化融资机制,用户将稳定币DAI存入智能合约,以便在代币销售结束前获得GHST。[2023/3/21 13:15:51]

有个额外的指标是确认延迟,这个源自一个很奇特的现象。区块链系统可以接受一个交易,但是没处理或者没处理完,就开始接受下一个交易了。这个时候你就会发现,例如每秒100个交易的处理吞吐量,并不是你发一个交易,1/100秒之后这个交易就处理完,并且被确认了。通常每个交易会需要历经更多的时间,才最终得以确认。

纽约陪审团判决侵犯爱马仕商标制作NFT的艺术家赔偿13.3万美元:2月9日消息,在曼哈顿联邦陪审团裁定Mason Rothschild侵犯了法国著名奢侈品牌爱马仕的商标权后,MetaBirkins 的创始人Mason Rothschild选择抨击爱马仕。 Mason Rothschild在Twitter中发表推文称,现在让九个人离开大街,让他们告诉你什么是艺术,但更重要的是,无论他们说什么,现在都会成为无可争议的真理,这就是今天发生的事情。一家价值数十亿美元的奢侈品品牌,声称他们‘关心’艺术和艺术家。[2023/2/9 11:56:14]

比特币性能很弱鸡,大家都知道,大约平均每秒处理7个交易。每个交易仅包含几个大整数的加减法,如果单纯是计算这些交易,随便拿个笔记本每秒都能算上百万的交易。那为啥比特币这么慢呢?先说个结论,这个事情不能赖在共识算法头上,这不是PoW的问题。

Lido与Obol Labs、ssv.network合作,将开启新一轮DVT测试:金色财经报道,Lido Finance宣布Obol Labs和ssv.network合作,将进行新一轮DVT(分布式验证器技术)测试,并邀请个人质押者参与测试。[2023/2/4 11:46:30]

比特币慢,有人说是PoW的难度很高,要十分钟才算一个块,也有人说比特币需要大量的算力才行。这些其实都是误解,把因果搞反了。十分钟才出一个块,是因为协议就是这么定的,不让出太快。如果大家算力多了,出块出得快了。比特币网络的算力调整算法会自动加大PoW难度,使得出块速度始终保持在十分钟一块的样子。需要大量的算力,是因为大家都要抢着去参与比特币的这个共识过程,因为每抢到一次机会,奖励25个比特币呀,看了一下,今天9000多美元一个。

Gitcoin第14轮捐赠活动超过4.4万名贡献者和490万美元捐赠额均创历史新高:7月1日消息,Gitcoin发布第14轮捐赠活动(GR14)回顾,各项数据均创历史新高。本轮捐赠活动有超过44,000名贡献者捐助超过1250个项目,捐赠总额为490万美元,其中320万美元来自联合匹配池,170万美元来自社区。

据悉,本轮捐赠的主轮次资金根据QF机制分配,最高上限为2.5%,以确保配套资金不会过度集中在少数拨款上。考虑到100万美元的总资金池规模,每笔拨款的最大匹配为25,000美元。[2022/7/1 1:44:34]

所以,就这样参与比特币共识的算力越来越多,PoW的难度也越来越高,就是我们今天看到的状况。但是这个的PoW算力,只是在争抢出块机会,这个算力再大,也不会使得比特币处理交易的速度有丝毫的提升。比特币系统,吞吐量低的原因是因为,其最初上线的时候,顺应当时的底层互联网的通讯能力,设定了每十分钟出一个块,每个块大小为1M字节。然后每个交易差不到需要200到300个字节,然后综合起来就是这个大概7几个交易每秒的吞吐量了。

为什么比特币系统要这样设计呢?不能出块间隔小一点,或者每个块大一点吗?到底是什么被什么东西限制住了呢?答案是,

网络带宽从根本上限制了区块链的吞吐量

这就是为什么,我去年还看项目的时候,对于那些吹几十万几百万TPS的项目。我一般就问一个问题,你的系统跑起来需要多少带宽?要那么高的带宽,你就只能把所有节点放在一个机房里面,用局域网连起来,这不是区块链,这叫做云服务 .....

咱开头第一篇就讲到,区块链是在一个松散分布的节点之间,接力执行计算的过程。那么,计算的过程要能被接力,那就意味着每个节点都需要获得这个计算的最新的上下文,最新的数据和状态。在区块链里面,具体的做法是,有节点出了一个块之后,必须要有足够的时间,让大部分其他参与者都同步到这个新的块,然后再出下一个块。就是因为这个原因,吞吐量会受到网络带宽的限制,不能太高,否则区块链网络就会无法达成共识的一致性。

然后,毕竟我们现在的互联网已经比起10年前要快不少了。所以,现在把比特币网络加快几十倍其实根本不需要什么算法的改进,改大块大小,改小出块间隔就可以轻松实现至少几十倍的吞吐量提升。但是如果要进一步提高,并且还要保证其去中心的程度,这就有很大的理论挑战了。

这里需要强调一下,去中心的程度和性能是有矛盾的。去中心的程度要求,尽量多的人可以参与到网络里面来,可以自己运行一个节点。那么,带宽要求就不能太高,要匹配互联网接入的平均带宽水平。为什么DPOS(例如 EOS)这么高吞吐量?因为它去中心的程度基本没有,无异于云服务,那么他就可以利用非常高的带宽,是普通互联网接入带宽的几千倍,那么吞吐量当然就轻松提升了。

随着吞吐量的提升,除了带宽,对每个节点的CPU处理能力,磁盘的读写能力也都会有更高要求。这里强调带宽,不仅仅是因为带宽是首要瓶颈,更是因为高带宽对去中心的程度有极大的伤害,因为高带宽的接入受到地理位置的限制,基本上只能在数据中心。而CPU, 磁盘的升级,完全不受地理位置的约束。

后面几篇,我们继续聊性能的其他两个方面。这一篇的扩展阅读:

国际计算机网络系统顶会NSDI 2019,发表了王嘉平博士团队关于高性能并行分片区块链系统的论文,这是中国人自主研发成果在区块链核心算法领域首次得到国际专家和同行的认可。王嘉平博士原为微软研究院主管研究员,专注分布式系统,计算机图形学和视觉以及用于机器学习的GPU集群等领域的研究,有数十项研究成果发表于ACM SIGGRAPH/ToG顶级国际期刊,已授权的美国专利十余项。他师从沈向洋博士(现微软全球执行副总裁),在中科院计算所获得博士学位。他的博士论文获得2009年度全国百篇优秀博士论文奖,是该年唯一一名计算机科学专业的获奖者。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

地球链

[0:0ms0-1:69ms