bot.gif
close
正在加载
Vitalik:以太坊Surge阶段未来应该怎么发展
互联网 · 2024-10-17 11:30
37219
摘要
现在我们的任务是完成以 Rollup 为中心的路线图,并解决这些问题,同时保留使以太坊 L1 与众不同的稳健性和去中心化性 。
币界网报道:

按:本文为以太坊创始人Vitalik近期发表的“以太坊协议的未来发展”系列文章的第二部分“Possible futures for the Ethereum protocol, part 2: The Surge”,第一部分见此前报道“以太坊PoS还有哪些可以改进”。由邓通编译,以下为第二部分全文:

一开始,以太坊的路线图中有两种扩展策略。

其中之一是“分片(sharding)”:每个节点只需要验证和存储一小部分交易,而不是验证和存储链中的所有交易。这也是任何其他点对点网络(例如 BitTorrent)的工作原理,因此我们当然可以使区块链以同样的方式工作。

另一个是 2 层协议:网络将位于以太坊之上,使它们能够充分受益于其安全性,同时使大多数数据和计算远离主链。 “2 层协议”指的是 2015 年的状态通道、2017 年的 Plasma,以及 2019 年的 Rollups。Rollup 比状态通道或 Plasma 更强大,但它们需要大量的链上数据带宽。

幸运的是,到 2019 年,分片研究已经解决了大规模验证“数据可用性”的问题。结果,两条路径融合了,我们得到了以Rollup为中心的路线图,这仍然是以太坊今天的扩展策略。

8AocS85961gPKhE9NO9zQI2tbvwfBUf38Rie2jrP.jpeg

The Surge,2023 年路线图版。

以Rollup为中心的路线图提出了一个简单的分工:以太坊 L1 专注于成为一个强大且去中心化的基础层,而 L2 则承担帮助生态系统扩展的任务。这是社会各处反复出现的模式:法院系统(L1)并不是为了超快速和高效,而是为了保护合同和财产权,而企业家(L2)则需要在此基础上进行构建坚固的基础层并将人类带到(隐喻和字面上的)火星。

今年,以Rollup为中心的路线图取得了重要成功:以太坊 L1 数据带宽通过 EIP-4844 blob 大幅增加,并且多个 EVM Rollup现在处于第一阶段。分片的非常异构和多元化的实现,其中每个 L2 充当具有自己的内部规则和逻辑的“碎片”现在已成为现实。但正如我们所看到的,走这条路有其自身的一些独特的挑战。因此,现在我们的任务是完成以 Rollup 为中心的路线图,并解决这些问题,同时保留使以太坊 L1 与众不同的稳健性和去中心化性。

Surge:关键目标

L1+L2 上 100,000+ TPS

保持 L1 的去中心化和稳健性

至少一些 L2 完全继承了以太坊的核心属性(去信任、开放、抗审查)

L2 之间的最大互操作性。以太坊应该感觉像是一个生态系统,而不是 34 个不同的区块链。

可扩展性的三难困境

可扩展性不可能三角是 2017 年提出的一个想法,它认为区块链的三个属性之间存在紧张关系:去中心化(更具体地说:运行节点的低成本)、可扩展性(更具体地说:处理大量交易)和安全性(更具体地说:攻击者需要破坏整个网络中的大部分节点才能使单个交易失败)。

qqspvBrss7g6upTmoxBsO5UFgQ3gMfQLJ9CRaTEc.jpeg

值得注意的是,三难困境不是定理,介绍三难困境的帖子没有附带数学证明。它给出了一个启发式的数学论证:如果一个去中心化友好的节点(例如消费者笔记本电脑)每秒可以验证 N 个交易,并且您有一个每秒处理 k*N 个交易的链,那么(i)每个交易只能被看到1/k 的节点,这意味着攻击者只需破坏几个节点即可推动不良交易,或者 (ii) 您的节点将变得强大并且您的链不是去中心化的。这篇文章的目的从来不是为了表明打破三难困境是不可能的;相反,它是为了表明打破三难困境是困难的——它需要以某种方式跳出论证所暗示的框框进行思考。

多年来,一些高性能链经常声称他们解决了三难困境,而没有在基础架构层面采取任何巧妙的措施,通常是通过使用软件工程技巧来优化节点。这总是具有误导性,并且在此类链中运行节点总是比在以太坊中困难得多。这篇文章探讨了为什么会出现这种情况的许多微妙之处(以及为什么 L1 客户端软件工程无法单独扩展以太坊本身)。

然而,数据可用性采样(DAS)和 SNARK 的结合确实解决了三难困境:它允许客户端验证一定数量的数据是否可用,以及是否正确执行了一定数量的计算步骤,同时仅下载该数据的一小部分并且运行的计算量要小得多。 SNARK 是不可信的。数据可用性采样具有微妙的少数 N 信任模型,但它保留了不可扩展链所具有的基本属性,即使 51% 攻击也无法迫使网络接受坏块。

解决三难困境的另一种方法是 Plasma 架构,它使用巧妙的技术以激励兼容的方式将监视数据可用性的责任推给用户。早在 2017-2019 年,当我们扩展计算所需的只是欺诈证明时,Plasma 的安全功能非常有限,但 SNARK 的主流化使得 Plasma 架构比以前更适用于更广泛的用例。

DAS的进一步进展

我们要解决什么问题?

截至 2024 年 3 月 13 日,当 Dencun 升级上线时,以太坊区块链每 12 秒时段有 3 个约 125 kB 的“blob”,或者每个时段约 375 kB 的数据可用带宽。假设交易数据直接发布到链上,ERC20传输约为180字节,因此以太坊上rollups的最大TPS为:

375000 / 12 / 180 = 173.6 TPS

如果我们添加以太坊的 calldata(理论最大值:每个插槽 3000 万个 Gas / 每字节 16 个 Gas = 每个插槽 1,875,000 字节),这将变为 607 TPS。对于 PeerDAS,计划将 blob 计数目标增加到 8-16,这将为我们提供 463-926 TPS 的 calldata。

这相对于以太坊 L1 来说是一个重大的提升,但这还不够。我们想要更多的可扩展性。我们的中期目标是每个插槽 16 MB,如果与汇总数据压缩的改进相结合,将为我们提供约 58,000 TPS。

PeerDAS是什么以及它是如何工作的?

PeerDAS 是“一维采样”的相对简单的实现。以太坊中的每个 blob 都是 253 位素数域上的 4096 次多项式。我们广播多项式的“份额”,其中每个份额由从总共 8192 个坐标集中获取的相邻 16 个坐标处的 16 个评估组成。 8192 次评估中的任意 4096 次(使用当前建议的参数:128 个可能样本中的任意 64 个)都可以恢复该 blob。

E9LRQb4D6pc1UwWWroCbn6zlzoiggOZtvv3SujMx.jpeg

PeerDAS 的工作原理是让每个客户端侦听少量子网,其中第 i 个子网广播任何 Blob 的第 i 个样本,并另外通过询问全球 p2p 网络中的对等方来请求其他子网上所需的 Blob (谁会监听不同的子网)。更保守的版本 SubnetDAS 仅使用子网机制,没有额外的请求对等层。当前的建议是参与权益证明的节点使用 SubnetDAS,其他节点(即“客户端”)使用 PeerDAS。

理论上,我们可以将 1D 采样扩展得相当远:如果我们将 blob 计数最大值增加到 256(因此,目标为 128),那么我们将达到 16 MB 目标,而数据可用性采样只需每个节点花费 16 个样本 * 128 blobs * 每个 blob 每个样本 512 字节 = 每个槽 1 MB 的数据带宽。这刚好在我们的容忍范围之内:它是可行的,但这意味着带宽受限的客户端无法采样。我们可以通过减少 blob 数量和增加 blob 大小来对此进行优化,但这会使重建更加昂贵。

因此最终我们想要更进一步,进行 2D 采样,它不仅通过在blob内进行随机采样,而且还在blob之间进行随机采样。 KZG 承诺的线性属性用于通过对相同信息进行冗余编码的新“虚拟 blob”列表来“扩展”区块中的 blob 集。

HdqHKm9ZagmTYb5FTlygncX1Pw5jnAWmlzJ77T5U.jpeg

2D sampling.来源:a16z 

至关重要的是,计算承诺的扩展不需要 blob,因此该方案从根本上对分布式块构建是友好的。实际构建区块的节点只需要有 Blob KZG 承诺,并且自己可以依赖 DAS 来验证 Blob 的可用性。 1D DAS 本质上对分布式区块构建也很友好。

与现有研究有哪些联系?

介绍数据可用性的原始文章(2018):https://github.com/ethereum/research/wiki/A-note-on-data-availability-and-erasure-coding

后续论文:https://arxiv.org/abs/1809.09044

DAS 的解释者帖子,范式:https://www.paradigm.xyz/2022/08/das

KZG 承诺的 2D 可用性:https://ethresear.ch/t/2d-data-availability-with-kate-commitments/8081

ethresear.ch 上的 PeerDAS: https://ethresear.ch/t/peerdas-a-simpler-das-approach-using-battle-tested-p2p-components/16541 和论文:https://eprint.iacr.org/2024/1362

EIP-7594:https://eips.ethereum.org/EIPS/eip-7594

ethresear.ch 上的 SubnetDAS:https://ethresear.ch/t/subnetdas-an-intermediate-das-approach/17169

2D 采样中可恢复性的细微差别:https://ethresear.ch/t/nuances-of-data-recoverability-in-data-availability-sampling/16256

还需要做什么,需要权衡什么?

下一步是完成 PeerDAS 的实施和推出。从那时起,不断增加 PeerDAS 上的 blob 计数是一项渐进的工作,同时仔细观察网络并改进软件以确保安全。与此同时,我们希望开展更多关于 PeerDAS 和其他版本的 DAS 形式化及其与分叉选择规则安全性等问题的交互方面的学术工作。

展望未来,我们需要做更多的工作来找出 2D DAS 的理想版本并证明其安全特性。我们还希望最终从 KZG 迁移到抗量子、无需可信设置的替代方案。目前,我们不知道有哪些候选者对分布式区块构建友好。即使使用递归 STARK 来生成重建行和列的有效性证明的昂贵“强力”技术也不够,因为从技术上讲,STARK 的哈希值大小为 O(log(n) * log(log(n)) (与 STIR),实际上 STARK 几乎和整个斑点一样大。

从长远来看,我认为现实的路径是:

我们可以通过权衡范围来看待这些:

7OuGxP6OFpruxrTKsZ43BaDLKo0VguvgrjCLgi3G.jpeg

请注意,即使我们决定直接在 L1 上扩展执行,这种选择仍然存在。这是因为如果 L1 要处理大量 TPS,L1 块将变得非常大,客户将需要一种有效的方法来验证它们是否正确,因此我们必须使用支持汇总的相同技术(ZK-EVM 和DAS)和 L1。

它如何与路线图的其他部分交互?

如果实施数据压缩(见下文),对 2D DAS 的需求会有所减少,或者至少会延迟,如果 Plasma 得到广泛使用,则对 2D DAS 的需求会进一步减少。 DAS 也对分布式区块构建协议和机制提出了挑战:虽然 DAS 理论上对分布式重构很友好,但在实践中需要与包含列表提案及其周围的分叉选择机制相结合。

数据压缩(Data compression)

我们要解决什么问题?

Rollup 中的每笔交易都会占用大量链上数据空间:ERC20 传输大约需要 180 个字节。即使采用理想的数据可用性采样,这也会限制第 2 层协议的可扩展性。每个插槽 16 MB,我们得到:

16000000 / 12 / 180 = 7407 TPS

如果除了解决分子之外,我们还可以解决分母,并使汇总中的每个交易在链上占用更少的字节怎么办?

它是什么以及它是如何工作的?

我认为最好的解释是两年前的这张图:

VKjra1KFcFmCg2spPSwDV8DIushnYqHiYawxY6Lq.jpeg

最简单的增益就是零字节压缩:用两个表示零字节数量的字节替换每个长的零字节序列。更进一步,我们利用交易的特定属性:

与现有研究有哪些联系?

来自sequence.xyz的探索:https://sequence.xyz/blog/compressing-calldata

针对 L2 的 Calldata 优化合约,来自 ScopeLift:https://github.com/ScopeLift/l2-optimizoooors

另一种策略 - 基于有效性证明的汇总(又名 ZK 汇总)发布状态差异而不是交易:https://ethresear.ch/t/rollup-diff-compression-application-level-compression-strategies-to-reduce-the-l2-data-footprint-on-l1/9975 上的-l2-数据足迹

BLS 钱包 - 通过 ERC-4337 实现 BLS 聚合:https://github.com/getwax/bls-wallet

还需要做什么,需要权衡什么?

剩下要做的主要工作就是将上述方案落到实处。主要的权衡是:

它如何与路线图的其他部分交互?

ERC-4337 的采用,以及最终将其部分内容纳入 L2 EVM 中,可以大大加快聚合技术的部署。将 ERC-4337 的部分内容纳入 L1 可以加速其在 L2 上的部署。

广义Plasma

我们要解决什么问题?

即使使用 16 MB blob 和数据压缩,58,000 TPS 也不一定足以完全接管消费者支付、去中心化社交或其他高带宽领域,如果我们开始考虑隐私,情况就尤其如此,这可能会使可扩展性下降 3 -8x。对于大容量、低价值的应用程序,当今的一个选择是 validium,它使数据处于链下状态,并具有有趣的安全模型,操作员无法窃取用户的资金,但它们可以消失并暂时或永久冻结所有用户的资金资金。但我们可以做得更好。

它是什么以及它是如何工作的?

Plasma 是一种扩展解决方案,涉及运营商在链外发布区块,并将这些区块的 Merkle 根放在链上(与 Rollups 不同,rollups 是将整个区块放在链上)。对于每个区块,运营商向每个用户发送一个 Merkle 分支,证明该用户的资产发生了什么或没有发生什么。用户可以通过提供Merkle分支来提取资产。重要的是,该分支不必扎根于最新状态 - 因此,即使数据可用性失败,用户仍然可以通过撤回可用的最新状态来恢复其资产。如果用户提交无效分支(例如,退出他们已经发送给其他人的资产,或者运营商自己凭空创建资产),链上挑战机制可以裁定该资产正确属于谁。

ZDF6iTQmuatOIn8W5YCwWnnPSDBxCDFltPGEkKrZ.jpeg

Plasma Cash 链图。花费币 i 的交易被放入树中的第 i 个位置。在这个例子中,假设所有之前的树都是有效的,我们知道 Eve 目前拥有硬币 1,David 拥有硬币 4,George 拥有硬币 6。

Plasma 的早期版本只能处理支付用例,无法有效地进一步推广。然而,如果我们要求每个根都用 SNARK 进行验证,那么 Plasma 就会变得更强大。每个挑战游戏都可以大大简化,因为我们消除了操作员作弊的大多数可能路径。新的路径也开辟了,使 Plasma 技术能够扩展到更广泛的资产类别。最后,在运营商不作弊的情况下,用户可以立即提取资金,无需等待一周的挑战期。

qnRV0t7BgOc29LuPYcAWu9oCJufruwekosWuMFJQ.jpeg

制作 EVM Plasma链的一种方法(不是唯一方法):使用 ZK-SNARK 构建并行 UTXO 树,反映 EVM 所做的余额变化,并定义什么是“同币”的唯一映射历史上的不同点。然后可以在此基础上构建Plasma结构。

一个重要的见解是 Plasma 系统不需要完美。即使您只能保护一部分资产(例如,即使只是过去一周没有移动的代币),您也已经大大改善了超可扩展 EVM 的现状,这是一个验证。

另一类结构是混合Plasma/rollups结构,例如 Intmax。这些结构将每个用户的非常少量的数据放在链上(例如 5 字节),通过这样做,可以获得介于Plasma和汇总之间的属性:在 Intmax 情况下,您可以获得非常高水平的可扩展性和隐私性,即使在 16 MB 世界中,理论上容量上限也约为 16,000,000 / 12 / 5 = 266,667 TPS。

与现有研究有哪些联系?

原始 Plasma 论文:https://plasma.io/plasma-deprecated.pdf

Plasma现金:https://ethresear.ch/t/plasma-cash-plasma-with-much-less-per-user-data-checking/1298

Plasma现金流: https://hackmd.io/DgzmJIRjSzCYvl4lUjZXNQ?view#-Exit

Intmax(2023):https://eprint.iacr.org/2023/1082

还需要做什么,需要权衡什么?

剩下的主要任务是将 Plasma 系统投入生产。如上所述,“plasma 与 validium”不是二元对立:任何 validium 都可以通过将 Plasma 功能添加到退出机制中来至少提高一点点安全性能。研究部分是为了获得 EVM 的最佳属性(在信任要求、最坏情况的 L1 Gas 成本和 DoS 脆弱性方面)以及替代的特定于应用程序的结构。此外,Plasma 相对于 rollups 的概念复杂性更大,需要通过研究和构建更好的通用框架来直接解决。

使用 Plasma 设计的主要缺点是它们更多地依赖于操作员并且更难“基于”,尽管混合 Plasma/rollup 设计通常可以避免这个弱点。

它如何与路线图的其他部分交互?

Plasma 解决方案越有效,L1 拥有高性能数据可用性功能的压力就越小。将活动移至 L2 还可减少 L1 上的 MEV 压力。

成熟的L2证明系统

我们要解决什么问题?

如今,大多数汇总实际上还不是去信任的;有一个安全理事会有能力推翻(乐观或有效性)证明系统的行为。在某些情况下,证明系统甚至根本不存在,或者即使存在也仅具有“咨询”功能。最领先的是 (i) 一些特定于应用程序的汇总,例如 Fuel,它们是去信任的,以及 (ii) 截至撰写本文时,Optimism 和 Arbitrum,这两个完整的 EVM 汇总已经实现了部分去信任里程碑称为“第一阶段”。 Rollups 没有进一步发展的原因是担心代码中的 bug。我们需要去信任的汇总,因此我们需要正面解决这个问题。

它是什么以及它是如何工作的?

首先,让我们回顾一下本文最初介绍的“stage”系统。还有更详细的要求,但总结如下:

我们的目标是达到第二阶段。达到第二阶段的主要挑战是获得足够的信心,证明证明系统实际上足够值得信赖。有两种主要方法可以做到这一点:

eShxNkXfhGklvH8Yv0X8b1ytGwzYN0GWC4BpQ1Bj.jpeg

多证明者的程式化图,结合了一个乐观证明系统、一个有效性证明系统和一个安全委员会。

与现有研究有哪些联系?

EVM K Semantics(2017年起正式验证工作):https://github.com/runtimeverification/evm-semantics

关于多证明者想法的演示(2022): https://www.youtube.com/watch?v=6hfVzCWT6YI

Taiko 计划使用多重证明:https://docs.taiko.xyz/core-concepts/multi-proofs/

还需要做什么,需要权衡什么?

对于形式验证来说,有很多。我们需要创建 EVM 的整个 SNARK 证明者的正式验证版本。这是一个极其复杂的项目,尽管我们已经开始了。有一个技巧可以显著简化任务:我们可以为最小虚拟机制作一个正式验证的 SNARK 证明者,例如。 RISC-V 或 Cairo,然后在该最小 VM 中编写 EVM 的实现(并正式证明其与其他一些 EVM 规范的等效性)。

对于多重证明者来说,还有两个主要的剩余部分。首先,我们需要对至少两个不同的证明系统有足够的信心,它们各自都相当安全,并且如果它们崩溃,它们会因不同且不相关的原因而崩溃(因此它们不会同时崩溃)。其次,我们需要在合并证明系统的底层逻辑中获得非常高水平的保证。这是一小段代码。有多种方法可以使其变得非常小——只需将资金存储在安全多重签名合约中,其签名者是代表个人证明系统的合约——但这需要付出高昂的链上Gas成本的代价。需要在效率和安全之间找到某种平衡。

它如何与路线图的其他部分交互?

将活动移至 L2 可减少 L1 上的 MEV 压力。

跨L2互操作性改进

我们要解决什么问题?

如今 L2 生态系统的一大挑战是用户难以操纵。此外,最简单的方法通常会重新引入信任假设:集中式桥、RPC 客户端等等。如果我们认真对待 L2 是以太坊一部分的想法,我们需要让使用 L2 生态系统感觉就像使用统一的以太坊生态系统一样。

cwsHADi2zE2sGk2hmCqw8t0hYshxLB3v3ArUHgvG.jpeg

一个病态糟糕的例子(甚至是危险的:我个人因为这里的链选择错误而损失了 100 美元)跨 L2 UX - 虽然这不是 Polymarket 的错,但跨 L2 互操作性应该是钱包和以太坊标准的责任(ERC) ) 社区。在运行良好的以太坊生态系统中,从 L1 到 L2 或从一个 L2 到另一个 L2 发送代币应该就像在同一个 L1 中发送代币一样。

它是什么以及它是如何工作的?

跨 L2 互操作性改进有很多类别。一般来说,提出这些问题的方法是注意到理论上,以汇总为中心的以太坊与 L1 执行分片是一样的,然后询问当前的以太坊 L2 版本在实践中在哪些方面与理想的差距。以下是一些:

9fwDUNNgw4bGKzh8XyFYuYCxDoNRs62EwjG9frm3.jpeg

轻客户端如何更新其以太坊标头链的视图。一旦有了标头链,您就可以使用 Merkle 证明来验证任何状态对象。一旦你拥有了正确的 L1 状态对象,你就可以使用 Merkle 证明(如果你想检查预先确认,还可能使用签名)来验证 L2 上的任何状态对象。Helios 已经做到了前者。扩展到后者是标准化的挑战。

PCHEpEQ3ya9wcyPDfJzf0aZw1DAgpjc9XProgmsK.jpeg

密钥库钱包如何工作的程式化图表。

与现有研究有哪些联系?

链特定地址:ERC-3770:https://eips.ethereum.org/EIPS/eip-3770

ERC-7683:https://eips.ethereum.org/EIPS/eip-7683

RIP-7755:https://github.com/wilsoncusack/RIPs/blob/cross-l2-call-standard/RIPS/rip-7755.md

滚动密钥库钱包设计:https://hackmd.io/@haichen/keystore

Helios: https://github.com/a16z/helios

ERC-3668(有时称为 CCIP-read):https://eips.ethereum.org/EIPS/eip-3668

Justin Drake 提出的“基于(共享)预确认”的提案:https://ethresear.ch/t/based-preconfirmations/17353

L1SLOAD (RIP-7728):  https://ethereum-magicians.org/t/rip-7728-l1sload-precompile/20388

乐观中的远程调用:https://github.com/ethereum-optimism/ecosystem-contributions/issues/76

AggLayer,其中包括共享令牌桥的想法:https://github.com/AggLayer

还需要做什么,需要权衡什么?

上面的许多例子都面临着何时标准化以及标准化哪些层的标准困境。如果标准化太早,您可能会面临劣质解决方案的风险。如果标准化得太晚,就有可能造成不必要的碎片化。在某些情况下,既有性能较弱但更容易实施的短期解决方案,也有“最终正确”但需要相当长的时间才能实现的长期解决方案。

本节的独特之处在于,这些任务不仅仅是技术问题:它们也是(也许主要是!)社会问题。他们需要 L2 和钱包以及 L1 进行合作。我们成功处理这个问题的能力是对我们作为一个社区团结在一起的能力的考验。

它如何与路线图的其他部分交互?

这些建议中的大多数都是“更高层”的结构,因此不会对 L1 考虑产生太大影响。一个例外是共享排序,它对 MEV 影响很大。

扩展 L1 上的执行

我们要解决什么问题?

如果 L2 变得非常可扩展且成功,但 L1 仍然只能处理非常少量的交易,那么以太坊可能会出现许多风险:

出于这些原因,继续扩展 L1 本身并确保它能够继续适应越来越多的用途是很有价值的。

它是什么以及它是如何工作的?

最简单的扩展方法就是简单地增加 Gas 限制。然而,这存在中心化 L1 的风险,从而削弱了使以太坊 L1 如此强大的另一个重要属性:其作为强大基础层的可信度。关于简单 Gas 限制增加到什么程度是可持续的一直存在争论,并且这也会根据其他技术的实施而发生变化,以使更大的区块更容易验证(例如历史到期、无状态、L1 EVM 有效性证明)。另一个需要不断改进的重要事情就是以太坊客户端软件的效率,它今天比五年前更加优化。有效的 L1 Gas 限制增加策略将涉及加速这些验证技术。

另一种扩展策略涉及识别特定的功能和计算类型,这些功能和计算类型可以在不损害网络分散性或其安全属性的情况下变得更便宜。这方面的例子包括:

这些改进将在以后关于 Splurge 的文章中更详细地讨论。

最后,第三种策略是本机汇总(或“内置汇总”):本质上,创建并行运行的 EVM 的许多副本,从而形成一个与汇总可以提供的模型等效的模型,但更原生地集成到协议中。

与现有研究有哪些联系?

Polynya 的以太坊 L1 扩容路线图:https://polynya.mirror.xyz/epju72rsymfB-JK52_uYI7HuhJ-W_zM735NdP7alkAQ

多维Gas定价:https://vitalik.eth.limo/general/2024/05/09/multidim.html

EIP-7706:https://eips.ethereum.org/EIPS/eip-7706

EOF:https://evmobjectformat.org/

EVM-MAX:https://ethereum-magicians.org/t/eip-6601-evm-modular-arithmetic-extensions-evmmax/13168

SIMD:https://eips.ethereum.org/EIPS/eip-616

本机汇总:https://mirror.xyz/ohotties.eth/P1qSCcwj2FZ9cqo3_6kYI4S2chW5K5tmEgogk6io1GE

采访 Max Resnick 关于扩展 L1 的价值:https://x.com/BanklessHQ/status/1831319419739361321

Justin Drake 关于使用 SNARK 和本机汇总进行扩展:https://www.reddit.com/r/ethereum/comments/1f81ntr/comment/llmfi28/

还需要做什么,需要权衡什么?

L1 缩放有三种策略,可以单独或并行执行:

值得理解的是,这些是具有不同权衡的不同技术。例如,本机汇总在可组合性方面与常规汇总有许多相同的弱点:您无法发送单个事务来跨多个事务同步执行操作,就像您可以在同一 L1(或 L2)上处理合约一样。提高 Gas 限制会剥夺通过使 L1 更易于验证而可以实现的其他好处,例如增加运行验证节点的用户比例以及增加单独的抵押者。使 EVM 中的特定操作更便宜(具体取决于操作方式)可能会增加 EVM 的总体复杂性。

任何 L1 扩展路线图都需要回答的一个大问题是:L1 和 L2 的最终愿景是什么?显然,所有事情都在 L1 上进行是荒谬的:潜在的用例每秒有数十万个事务,这将使 L1 完全无法验证(除非我们采用本机汇总路线)。但我们确实需要一些指导原则,这样我们才能确保我们不会造成这样的情况:我们将 Gas 限制提高 10 倍,严重损害以太坊 L1 的去中心化,并发现我们只是进入了一个世界,而不是99% 的活动都在 L2 上,90% 的活动都在 L2 上,因此结果看起来几乎相同,除了以太坊 L1 的特殊性的大部分不可逆转的损失。

GuJOav18XhYUhXbrYP58iR3cTCY1iHut07hAiKsq.jpeg

一种关于 L1 和 L2 之间“分工”的提议观点

它如何与路线图的其他部分交互?

让更多用户进入 L1 意味着不仅要改善规模,还要改善 L1 的其他方面。这意味着更多的 MEV 将保留在 L1 上(而不是仅仅成为 L2 的问题),因此更迫切需要明确地处理它。它极大地增加了 L1 上快速时隙时间的价值。它还在很大程度上依赖于 L1(“The Verge”)的验证是否顺利。

特别感谢 Justin Drake、Francesco、Hsiao-wei Wang、@antonttc 和 Georgios Konstantopoulos

发表评论
暂无评论
查看更多评论
相关资讯