ETH:Phase one and done:Eth2 作为数据可用性引擎

编者注:这篇文章的原标题为“PhaseOneandDone:eth2asadataavailabilityengine”,在发表当时,作者意在为Eth2.0提出一种替代Phase2的路线图,也就是,如果仅用分片来保证数据可得性,这样的系统是否有用,还需要增加哪些部分来使之变得有用。令人惊讶的是,在一年半以前,作者就已经认识到,对zk-rollup这样的系统来说,底层必须保障的是“状态转换的执行和数据可得性必须是原子化地绑定在一起的”,因此底层必须具备执行能力,哪怕是非常简单的无状态执行;而且,为保证用户体验,还缺少的主要部分是数据怎么上分片的手续费支付协议。手续费协议在Phase2的规范中,目前也仍然是缺失的。

顺带说一句,本文作者是CaseyDetrio,他是Ewasm团队的一员,之前也为Phase2提供过很多想法;他也认为,应该以“保证Eth1的合约到了Eth2能够如常执行”为核心来设计Eth2.0。他是被低估的一个开发者。

目前,限制Eth1吞吐量的瓶颈是状态增长。因此,如果我们想要扩展以太坊,从逻辑上来说,1000个具有独立状态的分片能够将吞吐量提高1000倍。

Paradigm发布以太坊客户端Reth的v0.1.0 alpha版本:6月21日消息,Paradigm首席技术官Georgios Konstantopoulos宣布,Reth v0.1.0 alpha版本现已发布。Reth是一个模块化的、贡献者友好、速度极快的以太坊客户端,该客户端使用Rust语言构建,采用了Apache/MIT许可证。[2023/6/21 21:50:42]

但是,从Eth1.x的路线来看,Eth1.x想要对两类资源的成本进行重大调整:存储和交易数据。目前,存储的定价过低,而交易数据的定价过高。这会激励dApp开发者在编写合约时更多使用存储而非交易数据,从而导致存储成为吞吐量的瓶颈。针对这一问题提出的解决方案是增加存储的定价,并减少交易数据的定价。经过这些成本调整,开发者将受到激励更多地使用交易数据,而非存储。因此,在不久的将来,我们预期Eth1的吞吐量会受到交易数据的限制,而非存储的限制。

如果我们假设吞吐量受到交易数据的限制,那么为了扩展以太坊,Serenity上的分片不需要有状态。如果吞吐量受到来自无状态合约的交易数据的限制,那么1000个无状态分片就会将吞吐量提高1000倍。

Bitfinex Alpha:比特币价格上涨期间衍生品交易量保持在正常水平:3月21日消息,Bitfinex近期的一篇文章表示,在美国央行恢复金融稳定措施的推动下,比特币价格大幅上涨。3月19日,在现货购买大量涌入的推动下,比特币的价格创下今年新高(28472 USDT),比特币非零余额钱包地址数已飙升至近4500万,新地址的指数移动平均线也呈持续上升趋势。

在比特币永续期货市场中,资金费率也几乎没有变化,这表明在价格上涨期间衍生品交易量保持在正常水平,现货购买正在支撑市场走势。

以太坊供应量也在以越来越快的速度减少。如果对以太坊的需求继续增长,这将进一步增加以太坊gas费,并最终进一步加快其通货紧缩速度(这对以太坊投资者来说是一个看涨的情景)。[2023/3/21 13:16:47]

这听起来不错,但是需要通过分片来实现,按计划要等到Phase2。与此同时,我们可以将Phase1作为数据可得性引擎。数据可得性引擎一词似乎逐渐流行起来。我们来思考一下它是如何运作的。

以zk-rollup为例,zk-rollup受到数据可得性的限制。Eth1上的zk-rollup合约能否有效地将Eth2作为桥接式可用性保障提供方?如果在执行过程中无法同时保障数据可得性,你就会得到一个类似plasma的zk-rollback系统。这个系统虽然能够大幅提高TPS,但是会引入复杂的权衡关系,需要处理像plasma那样的运营者挑战和退出机制。在可用性挑战中,任何人都可以提供数据来证明可用性,因此目前还不清楚将数据放入桥接的Eth2分片中能不能让事情变得更简单。

Parallel Finance与Phala实现XCM集成:据官方消息,Parallel Finance宣布,通过双向HRMP通道与Phala Network开启跨链通信。该跨共识消息(XCM)通道将同时在Polkadot上的Parallel和Phala Network之间,以及Kusama上Heiko和Khala Network之间开放。这种双向通信信道的主要用途是实现本地通信和链之间的PARA、HKO、PHA、k-PHA传输,而无需跨链桥。[2022/9/11 13:22:10]

现在有了另一个版本的zk-rollup,即,500TPS的zk-rollup,一切都变得简单多了。不再需要指定的运营者,任何人随时都能充当中继者,并生成SNARK证明来更新状态。事实上,数据可得性保障始终伴随着状态更新,也就是说不需要处理像plasma那样的运营者挑战和退出机制。但是这需要执行和数据可得性保障都发生在同一笔交易中,而遗憾的是我们无法使用桥接式可用性引擎做到这点。换言之,桥接对于zk-rollback这样的欺诈证明系统来说足够了,但是对zk-rollup这样的有效性证明系统来说还不够。结论是,为了将Layer2上的有效性证明简单化,Layer1上的可用性引擎需要具备的一项重要功能是,能保证数据可得性与状态转换的执行是原子化地一起发生的。

Neopets Meta将于周五推出元宇宙Alpha版本:8月25日消息,Neopets Meta将于周五推出其元宇宙Alpha版本。持有Neopets Metaverse、Pizzaroo的Unique Pizza和Masterpiece NFT的人将能够注册并访问该平台。整个9月,团队将发布允许与Neopets互动、装饰Neohomes和与其他玩家作战的功能。

最初虚拟宠物在线游戏平台上的几款经典迷你游戏将提供Web3体验,包括Turmac Roll、Meera Chase、Ultimate Bullseye。但Neopets Meta表示,该项目并不打算取代原来的Web2平台。(The Block)[2022/8/25 12:47:03]

或许我们不应该对这一认识感到惊讶。如果单靠数据可得性就有用的话,就不会有人说Phase1启动只是为了确保一堆非零blob的可用性,也就不会有人抱怨必须要等Eth2进入下一阶段才能真正发挥作用了。我们正在努力将Phase1作为数据可得性引擎,但是它依然无法执行任何操作,因此令人感到失望。

动态 | R3前首席销售官Scott Grayson加入区块链服务公司AlphaPoint:据coindesk消息,R3前首席销售官Scott Grayson加入区块链服务公司AlphaPoint担任机构销售高级副总裁。[2019/1/22]

那么,为什么Phase1会与执行相冲突?好吧,假设是有状态执行,则每个分片都要维护一些本地状态。如果验证者需要维护很多本地状态,那么验证者混洗就会复杂得多。反之,如果没有执行,就不用担心本地状态。验证者混洗就会简单得多,我们就可以专注于使用数据blob构建分片,然后更快地启动分片。

但是,我们先不假设执行是有状态的。如果我们尝试使用非常简单的无状态虚拟机来执行操作会怎么样?

假设信标链状态中有3个新的验证者字段:code、stateRoot和deployedShardId。这里还有一个函数process_deploy。一旦代码部署完成,验证者必须保证账户余额不低于某个阈值。

现在,我们假设全局状态中已经有了一些带有代码的账户。

接下来,我们尝试将特定数据blob打包到分片上,但是该怎么做?据我所知,对于phase1的分片验证者来说,如何决定将哪些数据blob打包到分片区块中仍是个悬而未决的问题。假设phase1规范中没有详细说明这一点。那么,对于用户来说,如果他们想要将自己的数据blob打包到分片上,就只能通过两种方式:联系验证者,并通过协议外的方式向其付款;自己成为验证者,就可以将数据blob打包到分片上。这两种方式都是下策。

比较好的方法是,将事情摆到台面上,允许验证者通过一个交易协议向当前区块提议者支付费用。作为交换,区块提议者要将验证者的数据blob打包到分片链上。但是,如果信标链区块操作有最小容量要求,这种方法就行不通了。如果没有一个能够让验证者决定数据blob打包优先级的交易协议,那么“将phase1作为数据可得性引擎”的用例将无法实现。不管怎么说,我们先假设,不管分片提议者在“没有执行的数据可得性引擎”模式中如何打包数据blob,都可以在“简单无状态执行的数据可得性引擎”中都同样能做到。

好了,那么假设特定的数据blob可以打包进区块了。每个区块都将执行限制在一笔交易中。我们还未明确交易要用密钥签署,还是不需要签署。假设是后者,且代码实现了自己的签名检查。如果blob能够作为交易成功解码,则以数据和当前状态根作为输入执行目标账户代码。如果执行成功,则返回数据为新的状态根。

我们如何更新验证者账户的stateRoot?我们无法在每个分片区块的BeaconState中更新状态根。但是,信标链的状态中的分片字段,会随着交联而更新。取同一个分片上所有账户的已更新状态根,假设对它们进行哈希运算,得到shard_state_root。shard_state_root似乎与phase1设计中已有的crosslink_data_root差不多。

不可否认的是,不是每挖出一个信标链区块,所有分片状态根都会更新,因此存在一些本地状态。但是,如果账户是全局的,状态根数据就是最小化的。这就与混洗期间验证者之间需要转移部分分片区块的数据差不多。

这里当然忽略了很多细节。我想要表达的是,无状态执行的大部分要求似乎在phase1就能满足。我认为,最大的问题在于,目前尚未明确用户可以通过哪种方式将他们的blob打包上链。或许这只是第一个问题,还有其它严重的问题被我忽略了。我忽略了什么?如果要在phase1上允许用户通过某种方式将blob打包上链,那么最困难的部分是什么?

这个执行模式相比phase2的提议更加简单,一大原因是合约账户是全局的,就像验证者账户一样。这就意味着,合约账户的数量必须设有上限,而且部署代码的成本与成为验证者的成本一样高。但是,如果这能够让我们更快地将执行引入Eth2,我们是否可以接受这种权衡?代码部署后,就无法更改合约存储,因此也可以说,我们这是在尝试不扩展合约存储而为Phase1提供执行功能。这里还有一大重要用例:具备数据可得性的超高吞吐量。

即使有了基础的无状态执行,用户也可以通过将一个合约的状态证明作为交易数据发送到另一个合约,从而实现跨分片合约调用。合约也可以实现自己的类似收据的功能。开发者体验不是很好,因为协议不会提供任何帮助。但是现有的phase2提议似乎缺乏实际的功能来促进跨分片合约交互。因此,就开发者体验而言,基础的phase1无状态执行听起来没有比“简单的”phase2构想糟糕很多。基础的无状态执行也足以实现信标链上的BETH和主链上的ETH之间的双向锚定。

Phase2提议与我们这里的提议的最大区别在于,Phase2的目标是扩展合约的storage。但是存储,以及相应而来的富状态执行,同样似乎就是大多数复杂性的来源,也正是使我们无望在Phase1引入执行的原因。

原文链接:

https://ethresear.ch/t/phase-one-and-done-eth2-as-a-data-availability-engine/5269

作者:?CaseyDetrio

翻译&校对:?闵敏?&阿剑

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

链链资讯

[0:0ms0-3:690ms