零知识证明能够提供隐私保护、扩容、构建信任等关键作用,与Web3.0的精神相互契合,因此其应用场景如雨后春笋大量涌现。目前,ZK的小型应用开发难度小、成本低,有较多较成熟应用;ZK的中型应用初见雏型,现今的技术也足以满足其性能需求;而对于大型应用而言,目前仍处于较早期的阶段,仍存存在部分技术瓶颈,距离成为成熟的产品还需要一些时间。我们首先简单盘点各类的应用场景:小型应用场景
独立的ZKDAPP是零知识证明最直接的应用场景,这类应用要证明的事项简单、种类少、量不大,因此也较容易开发。例如:单纯的隐私支付协议、ZK桥、身份解决方案等。中型应用场景
这类应用较小型应用场景相对复杂一些,需要证明的情况较多,但相对于小型应用而言只是倍数的增加,这类应用如:在数据存储网络中证明正确性、基于ZK的游戏等。大型应用场景
zkRollup的Layer2和zkEVM是零知识证明在Web3中的终极应用,用于处理一个VM或EVM中的各种可能性带来的状态变化。相对于小型应用的复杂程度是指数量级的增加,它们对于技术、开发工作量的要求都较高,距离达到理想中的用户体验还差一次技术跳跃。零知识证明无疑是Web3领域中最具创新性的技术之一,零知识证明也提供了构建Trustless产品的绝佳技术手段。然而像人工智能刚从学界走向业界一样,现今的各类应用场景仍有相当多的问题与挑战。庆幸的是,越来越多学界与业界的力量正投入这个领域。下面我们将深入探讨zk科技树的不同枝叶。高效算法与成熟的开发栈是核心枝干
Dora Factory社区发表关于MACI匿名化实现方案的文章:4月1日消息,Dora Factory社区在Dora研究博客发表文章,展示通过混淆电路和不经意传输实现基于2-of-2多方安全计算的MACI 匿名化方案的具体实现。核心内容主要分为三个部分:从任意算法到逻辑电路的实现;从逻辑电路到混淆电路的实现;利用不经意传输实现多方安全计算。最后,文章总结了基于多方安全计算的匿名化方案。
目前,尚不清楚Dora Factory是否会基于此方案实现MACI匿名化。[2023/4/1 13:39:25]
一套完整的零知识算法从研究走到应用需要经过理论研究、开发工具构建与具体应用开发等阶段。而其中效率问题是零知识证明应用进入下一个阶段最大的瓶颈之一,这其中包含算法的效率与开发的效率。在算法效率方面,不同零知识证明使用不同的方法表达要证明的电路、且背后基于不同的数学困难问题,这些因素都会影响算法的各项效率。具体而言,一个零知识证明算法重要的效率指标包含证明大小、证明时间、验证时间等等,而在目前,大量的算法都能实现较短的验证时间,各式的聚合技术也可以压缩证明大小,而证明时间则是主要的瓶颈。因此项目方的设计与选择对算法效率表现显得至关重要。不同零知识证明算法在复杂度方面会形成巨大的差异。复杂度的差异在输入的数量级大的时候会充分反映到具体的性能差异上。
Evolve基金提交关于Evolve交易基金(ETF)的初步招股说明书:Evolve Funds已向加拿大安大略省证券委员会(OSC)提交了一份关于Evolve加密货币交易所交易基金(ETF)的初步招股说明书。该公司在一份新闻稿中表示,Evolve Cryptocurrencies ETF将使投资者“间接接触”由投资经理选择的某些加密货币,按市值加权并每月重新平衡。Evolve ETFs的首席执行官Raj Lala表示,目前加拿大的投资者可以在他们的经纪账户中持有加密货币,包括他们的注册退休储蓄计划[RSP]和免税储蓄账户(TFSA)。(coindesk)[2021/8/19 22:22:44]
图1:各种零知识证明算法预期未来将有更多团队在零知识证明的算法上投入更多研究精力以找到最符合项目需求特性的算法。例如FOX这样的Layer2项目坚持设计在证明时间这项关键指标上达到理论下界,线性复杂度O(C),且是对数验证时间、无需可信设制的算法。这种算法非常适合支持一个没有容量上限的扩容网络。在开发方面,开发效率低下的主要原因是相关的开发栈缺失严重,将应用场景转换为电路语言最终付诸算法证明的过程相当复杂:需要将前述漫长过程中的某个(些)部份抽象化、形成模块化的开发工具或语言,并保持彼此之间的兼容性。完整、丰富的ZK开发栈便是破局的关键,这让开发者能只专注于各自关注的环节,一起合作完成一个完整的ZK应用。
分析 | Peter Schiff关于BTC将比黄金更早触及3000美元的看法有误:黄金支持者Peter Schiff最近表示,在黄金涨破3000美元前,BTC将先跌破该价位。CCN分析文章称,Schiff对比特币的看法是错误的,就像他以前对房地产市场崩盘的看法一样。美联储的扩张性货币政策稳步压低美元价值。这是特意设计的,因为它让人们花钱和投资,而不是紧紧抓住不放。John Maynard Keynes、Milton Friedman等主流经济学家都支持这一设计,认为它能刺激经济增长。正如Schiff和他研究过的奥地利经济学家指出的那样,弊端是繁荣和萧条的经济周期。随着货币扩张,对货币的狂热消费导致资本向高风险、非生产性投资和投机泡沫的错配。当市场调整价格以反映经济的真实价值时,就会出现崩盘。当房地产市场崩溃、大萧条导致世界经济低迷时,比特币并不存在。但如果已存在,人们可以想象,作为全球宏观对冲,有多少资本会流向它。比特币已证明自己是像黄金一样的避险资产,价格与股票无关。真正的问题是哪个先发生:3000美元的黄金现货价格,还是比特币达到2万美元历史高点?希望是后者。因为如果黄金价格在接下来几年翻番,就意味着将迎来又一次大衰退。(CCN)[2020/2/24]
声音 | Peter Schiff:关于Midas岩石的新闻是假消息 是为了推高比特币价格的谎言:据AMBCrypto 6月30日消息,最近所谓的“Midas岩石”含有贵金属、可以让地球上每个人都成为亿万富翁的消息引起了比特币投资者的注意。黄金爱好者Peter Schiff在推特表示,“一颗金色小行星的存在是假消息——一个为了推高比特币价格而散布的谎言。Psyche 16是一颗稀有的金属小行星,其成分类似于地核。它几乎完全由铁镍合金制成,并含有少量其他金属,可能包括黄金。” 黄金和比特币一样,有一个重要的特征使它们的价格越来越高,那就是稀缺。没有稀缺性,两者的价格都不会像今天这样高。根据The Sun的文章,Midas岩石应该含有镍、铂、铁、金和其他金属,估计有8000万亿英镑。Schiff提到这一点时表示,这是“假消息”,比特币投资者利用这一消息传播FUD,并推高比特币的价格。Whale Panda在推特上发布了一条类似的推文,说明如果没有稀缺特性,黄金将如何贬值。[2019/7/1]
表1:零知识证明硬件加速面临的问题硬件加速助力开枝散叶
BtcTrade.im发布关于支持EOS映射的公告:根据EOS官网消息,EOS测试网络已上线,并已经开始准备将EOS ERC20代币映射到主网络的测试工作。BtcTrade将按照EOS官方时间点,第一时间为用户进行快照截取和映射转换工作。[2018/3/14]
硬件加速是使零知识证明效率进一步提高、让大型应用更接近成熟落地的关键。而这便涉及两个问题:首先是哪些运算可以加速,其次是哪些硬件可以用来加速。对于第一个问题,不同的零知识证明主要的差异在于多项式承诺的方法,MatterLabs采用的Plonk、Scroll采用的Ultra-Plonk等算法多项式承诺基于KZG,因此其中的Prover涉及大量的FFT计算和ECC点乘MSM的运算用以产生多项式和承诺,这两类计算都会带来大量计算负担。具体而言,MSM有通过在多个线程上运行来加速的可能,但是需要大量内存并且即使在高度并行化时仍然很慢,而FFT严重依赖算法运行时数据的频繁洗牌,这使得它们很难通过跨计算集群分配负载来加速。因此目前对这些运算加速都意味着高昂的成本。此外,Starkware研发的STARK、FOX研发的FOAKS都在FRI的过程中主要涉及哈希运算。虽然也有FFT,但量不大。因此这两种算法可以使用硬件加速来提升运算的效率。在硬件层面主要有GPU、FPGA、ASIC三种选择,各有不同的特性:GPU:GPU能够通过一定的算法,加速并行计算。使用GPU加速的效果取决于具体的算法,例如在FOX的使用的FOAKS算法没有大量的FFT和MSM运算,且其ZKEVM设计中本身就包含大量可以并行计算的部分,便能通过GPU获得较大的效率提升。FPGA:FPGA是可编程的集成电路,因此开发者能够通过针对于ZK算法定制化优化矿机。ASIC:ASIC是为特定用途专门定制的集成电路芯片。但是ASIC由于过于定制化,需要的时间和成本也会更多,也许硬件的迭代伴随着行业规模的增大,逐渐朝着ASIC方向发展,但是不会一步到位。在比特大陆等专业硬件厂商进入这个领域之后,ASIC或成为主流选项。这三种硬件不同的特性也使其有不同的机会。短期看GPU,中期看FPGA,长期看ASIC。以太坊转为PoS后,GPU算力将会流向可以吸纳这些算力的网络,而没有大量FFT和MSM运算且对并行运算友好的网络将会成为他们的首选。FPGA的可编程性在中期具备一定的优势,尤其是在算法更迭快速、技术路线还不稳定的时期。ASIC路线意味着更高昂的成本,但能带来更高的效率提升。从长远看大型硬件厂商势必进入这个赛道并毫无疑问会选择ASIC作为其主打芯片类型。zkPOW机制设计锦上添花
最后,有了完整的软硬件,机制设计便是使其稳定运行与进步的最后一步。各个zkRollup项目在初期的Prover通常都会更接近传统的中心化服务:部署在云上,并由项目方独享这部分的收益。但是在Web3的叙事下,未来Prover的工作势必往去中心化的方向发展,而这样的发展也有以下的优点:将有更多人可以分享证明生成算力,分享收益与项目利益绑定。这种激励机制将出现更加本地化的算力,从而与项目方和基金会共同建造并壮大生态系统。一个好的去中心化的机制会带动更大的力量推动技术进步,让更多各方的专家投入精力研究让系统效率不断进步,让用户获得更好的体验。去中心化的机制将能更好的适应需求的动态变化。但是证明过程的去中心化有相当多的挑战,例如去中心化后各方该通过甚么样的共识合作、应该在证明过程中的哪个层面分配去中心化的任务、如何保持通信的效率与避免可能的攻击行为等等。尽管如此,一些理想的可能解决方案已经被刻画在部分项目的愿景中,例如在FOX的设计中便包含了一个zkPOW的方案,这个方案能够达成以下目标:通过引入随机性实现算力提升:生成零知识证明的计算和传统POW的计算不一样,在没有引入随机性的场景下,具有最高算力的一方将永远都能获得生成证明的奖励,从而导致其他各方退出,而获得垄断后这个算力提供者也不再有动机提升算力,失去去中心化的初衷。通过引入算力收益算法实现分配公平:一个公平分配的方案将使得长期而言,各个算力提供者的期望收益与其算力成正比,这意味着这个方案将让zkMiner如PoW机制下一样,可以通过投入算力以获取收益,并难以通过非法手段获取超额激励收益。长期而言,公平的算力收益算法也能保证系统中算力提供者数量的稳定性,同时也意味着更高的抗攻击能力。FOX的zkPOW设计中,在第一个证明被提交随后的一个时间窗口内提交证明的参与者都可以获得不同比例的激励,同时,通过引入随机性使得每次证明的提交内容都不相同,这意味着每次证明的提交背后都必须经过完整的证明计算。而通过仔细设计的比例分配,将使得各个参与者的期望收益与其算力成比例,对各个参与者提高计算效率产生正向激励,最终使得项目的用户都将因此受惠,享受更安全、更快、成本更加低廉的zkRollup服务。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。