编者注:这篇文章的原标题为 “Phase One and Done: eth2 as a data availability engine”,在发表当时(2019 年 4 月),作者意在为 Eth2.0 提出一种替代 Phase 2 的路线图,也就是,如果仅用分片来保证数据可得性,这样的系统是否有用,还需要增加哪些部分来使之变得有用。令人惊讶的是,在一年半以前,作者就已经认识到,对 zk-rollup 这样的系统来说,底层必须保障的是 “状态转换的执行和数据可得性必须是原子化地绑定在一起的”,因此底层必须具备执行能力,哪怕是非常简单的无状态执行;而且,(作者也通过层层推理指出)为保证用户体验,还缺少的主要部分是数据怎么上分片的手续费支付协议(这两点认识,即使放到今天,也仍然称得上是前沿,甚至是超前)。手续费协议在 Phase 2 的规范中,目前也仍然是缺失的。
顺带说一句,本文作者是 Casey Detrio,他是 Ewasm 团队的一员,之前也为 Phase 2 提供过很多想法;他也认为,应该以 “保证 Eth1 的合约到了 Eth2 能够如常执行” 为核心来设计 Eth2.0。他是被低估的一个开发者。
目前,限制 Eth1 吞吐量的瓶颈是状态增长。因此,如果我们想要扩展以太坊,从逻辑上来说,1000 个具有独立状态的分片能够将吞吐量提高 1000 倍。
但是,从 Eth1.x 的路线来看,Eth1.x 想要对两类资源的成本进行重大调整:存储(storage)和交易数据(tx data)。目前,存储的定价过低,而交易数据的定价过高。这会激励 dApp 开发者在编写合约时更多使用存储而非交易数据,从而导致存储成为吞吐量的瓶颈。针对这一问题提出的解决方案是增加存储的定价,并减少交易数据的定价。经过这些成本调整,开发者将受到激励更多地使用交易数据,而非存储(即,他们会编写更多无状态合约而非状态合约)。因此,在不久的将来(如果 Eth1.x 的路线图获得广泛采用),我们预期 Eth1 的吞吐量会受到交易数据的限制,而非存储的限制。
如果我们假设吞吐量受到交易数据的限制,那么为了扩展以太坊,Serenity 上的分片不需要有状态。如果吞吐量受到来自无状态合约的交易数据的限制,那么 1000 个无状态分片就会将吞吐量提高 1000 倍。
这听起来不错,但是需要通过分片来实现,按计划要等到 Phase 2。与此同时,我们可以将 Phase 1 作为数据可得性引擎。数据可得性引擎一词似乎逐渐流行起来。我们来思考一下它是如何运作的。
以 zk-rollup 为例,zk-rollup 受到数据可得性的限制。Eth1 上的 zk-rollup 合约能否有效地将 Eth2 作为桥接式可用性保障提供方?如果在执行(即,验证 SNARK 证明并更新状态根)过程中无法同时保障数据可得性,你就会得到一个类似 plasma 的 zk-rollback 系统。这个系统虽然能够大幅提高 TPS,但是会引入复杂的权衡关系,需要处理像 plasma 那样的运营者挑战和退出机制。在可用性挑战中,任何人都可以提供数据来证明可用性,因此目前还不清楚将数据放入桥接的 Eth2 分片中能不能让事情变得更简单。
现在有了另一个版本的 zk-rollup,即,500 TPS 的 zk-rollup,一切都变得简单多了。不再需要指定的运营者,任何人随时都能充当中继者,并生成 SNARK 证明来更新状态。事实上,数据可得性保障始终伴随着状态更新,也就是说不需要处理像 plasma 那样的运营者挑战和退出机制。但是这需要执行和数据可得性保障都发生在同一笔交易中,而遗憾的是我们无法使用桥接式可用性引擎做到这点。换言之,桥接对于 zk-rollback 这样的欺诈证明系统来说足够了,但是对 zk-rollup 这样的有效性证明系统来说还不够。结论是,为了将 Layer 2 上的有效性证明简单化,Layer 1 上的可用性引擎需要具备的一项重要功能是,能保证数据可得性与状态转换的执行是原子化地一起发生的。
或许我们不应该对这一认识感到惊讶。如果单靠数据可得性(没有执行)就有用的话,就不会有人说 Phase 1 启动只是为了确保一堆非零 blob(二进制大型对象)的可用性,也就不会有人抱怨必须要等 Eth2 进入下一阶段才能真正发挥作用了(除了 PoS 之外)。我们正在努力将 Phase 1 作为数据可得性引擎,但是它依然无法执行任何操作,因此令人感到失望。(哇,我们可以构建 Mastercoin 2.0 了!)
那么,为什么 Phase 1 会与执行相冲突?好吧,假设是有状态执行,则每个分片都要维护一些本地状态。如果验证者需要维护很多本地状态,那么验证者混洗就会复杂得多。反之,如果没有执行,就不用担心本地状态。验证者混洗就会简单得多,我们就可以专注于使用数据 blob 构建分片,然后更快地启动分片。
但是,我们先不假设执行是有状态的。如果我们尝试使用非常简单的无状态虚拟机来执行操作会怎么样?
假设信标链状态中有 3 个新的验证者字段:code、stateRoot和deployedShardId。这里还有一个函数process_deploy(就在 process_transfer 下方)。一旦代码部署完成,验证者必须保证账户余额不低于某个阈值[至少锁定 1 ETH。如果代码中没有自毁程序(SELFDESTRUCT),那么这部分 ETH 就等同于销毁了,代码也会永久部署]。
现在,我们假设全局状态中已经有了一些带有代码的账户。
接下来,我们尝试将特定数据 blob 打包到分片上,但是该怎么做?据我所知,对于 phase 1 的分片验证者来说,如何决定将哪些数据 blob 打包到分片区块中仍是个悬而未决的问题。假设 phase 1 规范中没有详细说明这一点。那么,对于用户来说,如果他们想要将自己的数据 blob 打包到分片上,就只能通过两种方式:(1)联系验证者,并通过协议外的方式(例如,eth1 支付通道)向其付款;(2)自己成为验证者,就可以(在他们被随机选为分片的区块提议者时)将数据 blob 打包到分片上。这两种方式都是下策。
比较好的方法是,将事情摆到台面上,允许验证者通过一个交易协议向当前区块提议者支付费用。作为交换,区块提议者要将验证者的数据 blob 打包到分片链上。但是,如果信标链区块操作(如验证者转账)有最小容量要求,这种方法就行不通了。如果没有一个能够让验证者决定数据 blob 打包优先级的交易协议,那么“将 phase 1 作为数据可得性引擎” 的用例将无法实现(无论是通过桥梁连接到信标链的 eth1 合约,还是 Truebit、Mastercoin 2.0 或其它我之前听说过的数据可得性用例)。不管怎么说,我们先假设,不管分片提议者在 “没有执行的数据可得性引擎” 模式中如何打包数据 blob,都可以在 “简单无状态执行的数据可得性引擎” 中都同样能做到。
好了,那么假设特定的数据 blob可以打包进区块了。每个区块都将执行限制在一笔交易中(例如,整个数据 blob 必须作为一笔交易)。我们还未明确交易要用密钥签署(存在交易协议),还是不需要签署(不存在交易协议)。假设是后者,且代码实现了自己的签名检查(类似账户抽象;存在区块 gas 上限,但是没有费用转账机制,因此没有 gas 价格和 GASPAY 操作码)。如果 blob 能够作为交易成功解码,则以数据和当前状态根作为输入执行目标账户代码。如果执行成功,则返回数据为新的状态根。
我们如何更新验证者账户的stateRoot(状态根)?我们无法在每个分片区块的 BeaconState(信标链状态)中更新状态根(因为信标链操作在数量上有严格限制)。但是,信标链的状态中的分片字段,会随着交联(crosslink)而更新。取同一个分片上所有账户的已更新状态根,假设对它们进行哈希运算,得到shard_state_root(分片状态根)。shard_state_root似乎与 phase 1设计中已有的crosslink_data_root差不多(二者都是取决于之前分片区块内容的哈希值)。
不可否认的是,不是每挖出一个信标链区块,所有分片状态根都会更新,因此存在一些本地状态。但是,如果账户是全局的,状态根数据就是最小化的。这就与混洗期间验证者之间需要转移部分分片区块的数据差不多。
这里当然忽略了很多细节。我想要表达的是,无状态执行的大部分要求似乎在 phase 1 就能满足。我认为,最大的问题在于,目前尚未明确用户可以通过哪种方式将他们的 blob 打包上链(如果这个问题不解决,phase 1 就无法成为桥接式可用性引擎)。或许这只是第一个问题,还有其它严重的问题被我忽略了。我忽略了什么?如果要在 phase 1 上允许用户通过某种方式将 blob 打包上链,那么最困难的部分是什么(如果你喜欢的话,也可称之为 phase 1.1)?
这个执行模式相比 phase 2 的提议更加简单,一大原因是合约账户是全局的,就像验证者账户一样。这就意味着,合约账户的数量必须设有上限,而且部署代码的成本与成为验证者的成本一样高(也有可能低于后者)。但是,如果这能够让我们更快地将执行引入 Eth2,我们是否可以接受这种权衡?代码部署后,就无法更改合约存储,因此也可以说,我们这是在尝试不扩展合约存储而为 Phase 1 提供执行功能。这里还有一大重要用例:具备数据可得性的超高吞吐量(将交易吞吐量增加 1000 倍)。
即使有了基础的无状态执行,用户也可以通过将一个合约的状态证明作为交易数据发送到另一个合约,从而实现跨分片合约调用。合约也可以实现自己的类似收据的功能(合约状态根中的收据就像区块头中的收据字段一样可验证)。开发者体验不是很好,因为协议不会提供任何帮助。但是现有的 phase 2 提议似乎缺乏实际的功能来促进跨分片合约交互(这些麻烦都留给了 dApp 开发者,他们必须实现从不同分片中获取收据的逻辑,确保收据没有双花等等)。因此,就开发者体验而言,基础的 phase 1 无状态执行听起来没有比 “简单的” phase 2 构想糟糕很多。基础的无状态执行也足以实现信标链上的 BETH 和主链上的 ETH 之间的双向锚定。
Phase 2 提议与我们这里的提议的最大区别在于,Phase 2 的目标是扩展合约的 storage。但是存储,以及相应而来的富状态执行(stateful execution),同样似乎就是大多数复杂性的来源,也正是使我们无望在 Phase1 引入执行的原因。
原文链接:
https://ethresear.ch/t/phase-one-and-done-eth2-as-a-data-availability-engine/5269
作者: Casey Detrio
翻译&校对: 闵敏 & 阿剑
翻译&校对: 闵敏 & 阿剑
声音 | 尹航:Phala的隐私计算通过可信硬件实现:11月21日,在《金色深核》线上直播中,Phala Network联合创始人尹航介绍了Phala的隐私计算模型以及\"桥\"如何保证资产安全性。尹航表示,Phala的隐私计算通过可信硬件实现,确切的说我们目前基于Intel SGX。从Intel的第六代CPU开始,每一个CPU内部都包含一块特殊的区域,我们把它称作“安全区”。安全区是硬件层面隔离的,安全区内部署的程序在执行过程中不会被干扰,数据也不会泄露,可以抵御来自操作系统、硬件级别的攻击。因此我们把合约部署在安全区内,可以保证合约的输入、输出,以及执行过程都保密。只有用户权限足够才能解密数据。 \n另一方面,可信硬件提供了“远程验证”协议,用户不需要特殊硬件,只要让矿工执行合约即可,执行的同时会生成出一份密码学证明,可以被浏览器、手机钱包独立验证。在Phala.Network上,一种资产就是一个合约,代码与ERC20没什么区别,但Phala只允许交易双方解密交易数据,任何第三方都不能看到交易数据。我们会在Phala的机密智能合约中实现Libra的轻客户端轻客户端可以验证来自Libra链的数据,也可以产生并Libra交易,这样就实现了一个转街桥:用户在Libra链上把资产转入到一个锁定合约中,这次转账被pLIBRA合约观测到,就会在pLIBRA端生成对应的跨链资产。 \n此外,用户可以随时用pLIBRA端的资产,兑换回Libra链上的原生资产。整个过程用户都只和智能合约交互,不用引入第三方,就实现了去中心化的转街桥。未来我们会利用波卡上的桥,以及在自己的链上开发更多的桥,目标是为任何区块链提供隐私计算的能力。[2019/11/21]
动态 | 对冲基金Alphabit投资区块链公司Sun Exchange:据Businesslive消息,位于南非开普敦的区块链公司Sun Exchange已经从对冲基金Alphabit获得了50万美元的种子轮融资,该公司允许个人购买太阳能项目。[2018/10/12]
虚拟货币交易所BITSUM与Korea Phase Service达成战略业务协议:据Cointalk报道,虚拟货币交易所BITSUM与Korea Phase Service达成战略业务协议,宣布将创建一个可以通过离线商店中的密码直接结算的环境。根据合作关系,两家公司决定为全国6000多家商户创建密码清算环境。[2018/4/16]
标签:
验证人 20075。教科书式的 ETH 2.0 Slash 罚款第一案例。 这是以太坊 2.0 第一个被 Slash 罚款的人:验证人 20075 。 在超额达成存款目标后,以太坊 2.0 信标链主网(Beacon Chain)于北京时间 12 月 1 日晚上 20:00 正式启动,12 月 2 日晚,第一个受到惩罚的「倒霉蛋」已经出现。
12/12/2020 8:17:04 PM「以太破600了,2.0式的质押相当于通缩,我看1000,必须冲一波」散户陈晨在不到10人的币友群喊到,随即群友派大星回应称:「感恩节回调的时候我上车了,600下车,已经盈利,真香。」 陈晨和币友派大星的反映在一定程度上是市场在机构牛背景下的真实写照。
12/12/2020 8:16:59 PM以太坊(Ethereum)经常因其「宽松」的货币政策而饱受批评,但是随着 ETH 2.0 开始启动,情况可能会发生改变。 真正的改变,会发生在「阶段 1.5」——即以太坊 1.x 合并为以太坊 2.0 之后。届时,ETH 代币年通胀率可能会大幅下降,即便在短时间内无法达到负通胀,但也会降至 1% 以下。此时,以太坊通货膨胀率将远远低于比特币。
12/12/2020 8:16:55 PM编者注:这篇文章的原标题为 “Phase One and Done: eth2 as a data availability engine”,在发表当时(2019 年 4 月),作者意在为 Eth2.0 提出一种替代 Phase 2 的路线图,也就是,如果仅用分片来保证数据可得性,这样的系统是否有用,还需要增加哪些部分来使之变得有用。
12/12/2020 8:16:50 PM2015年推出的Ethereum(ETH)是目前市值排名第二的加密货币,与Cardano (ADA)和Kusamo (KSM)等加密货币一样,都具备非常高的开发者活跃度。 最近,一些加密分析人士认为Ethereum似乎已经过时了,但事实上,Ethereum网络的开发者活跃度非常高,这意味着该网络仍将维持其快速发展态势。
12/12/2020 8:16:46 PM如今,对于以太坊乃至所有区块链来说,Optimistic Rollup 是最有前途的可扩展性方案。但是,Optimistic Rollup(ORU)是什么?为什么它会让以太坊开发者和可扩展性研究者如此心潮澎湃? 在本文中,我们将以通俗易懂的方式来介绍 ORU 的基础知识。 ORU 具备很多理想特点。在所有区块链可扩展性技术中,它的特点都是无可比拟的。
12/12/2020 8:16:42 PM以太坊(英文Ethereum)是一个开源的有智能合约功能的公共区块链平台,通过其专用加密货币以太币(Ether,简称“ETH”)提供去中心化的以太虚拟机(Ethereum Virtual Machine)来处理点对点合约。
12/12/2020 8:16:37 PM