圆桌对话:zk 如何才能走向真正的主流,zk 与 AI 又将如何结合?
作者:最新
在zk 叙事持续升温下,上周 最新 “ zk大师课”系列活动第二期(往期回顾), 邀请到了来自Ola、Cysic 、Hyper Oracle、FOX 、Opside 以及 CatcherVC 的 6位成员,以“zk 叙事升温,如何捕获 zk 的长期价值”为主题,一起探讨了 zk目前的发展瓶颈以及未来可能突破的方向。
NanFeng:Opside从2018年就开始研究技术选型。我们发现目前做Rollups 服务的很多项目方,比如 AltLayer和最近融资的热门项目可能都是基于OP Stack框架,按照Optimism的那套代码去修改。
而zk最大的局限性在于如何提供更多的算力,因为Optimistm方案只需要有一个节点就可以了,相当于运行应用链一样。但是zk方案需要去生成 zk证明来提供数据的验证性。同时,因为zk的算力具备很强的专业性,很可能游戏或者社交网络的开发者没有这个能力去提供zk算力,需要吸引更多的矿工进来提供算力,而不是说让开发者自己去维护算力。
Leo Fan:创办Cysic这个项目是来自于我在Argo的一些经历。Argo本身就是一个zk,当时我们尝试把生成证明的时间缩短到一分钟之内,但是用了很多算法和软件优化程序都没有达到,所以就产生了 zk加速硬件的想法。
现在市面上所有的ZKP的方法并不会跟某种算法完全绑定,大家只是把这些算法拆成更基础的算子,然后尝试去加速这些算子。哪怕后面算法发生改变,也只需要在软件层面重新编译即可。所以大家目前都在测试效率最好的排列组合,比如我们的MSN,本身的效率已经是非常高。
之后我们开始去调研zkEVM的方案,逐渐意识到对于一个扩容项目来讲,如何实现最终的扩容效果更加重要。而现有项目还有很多可以在性能上继续提升的点。
今年1月份我们调整了Ola VM的方向,除了做扩容之外,我们也布局隐私领域。因为从Aztec Network完成了新一轮融资来看,我们判断,加密行业对隐私还是有真正的叙事需求的。
此外,我们可以支持任意的链下计算,算是突破了zk的一个局限性。zkWASM(WebAssembly 的 zkVM)是完全可定制和可编程的,在 zkWASM 中运行的任何程序都具有 zk 的超强能力,包括可验证性、免信任、去中心化和计算完整性。
Sputnik:我们之所以选择这个赛道,看到了zk有两个重要属性:一方面可以实现零知识,提供隐私保护。同时, 也因为Rollup开发也是我们团队的技术特长。
Msfew:安全性上要补充一点,我们不一定要用zkWASM,但为了保证能够继承以太坊的安全性,而不是通过StarkNet来继承以太坊的部分安全性,最终还是选择了zkWASM,让证明可以在以太坊上进行验证。
在整个激励机制的设计方面,我们会结合 The Graph等的一些设计,并将一些庞氏组件去掉。因为代币设计的第一个要义不是为了单纯提高其价格,而是结合代币打造一个成功的产品或者说成功的网络。
3、主持人 LonersLiu:在以往的安全模式里面,我们会信任博弈参与方会诚实的参与,而在zk方面,要信任电路安全问题、约束条件或者说编译器需要信任它,但这背后也是人,请问你们是怎么去做好安全的,是通过审计还是其它方式?
关于zk整个系统的安全性是比较新的一个问题,目前,在zk开发方面有关它的安全工具或测试工具及审计工具非常的稀少,大多是要依赖比如人工之类的审计。在未来的发展中,可能会有非常多zk安全相关的工具产生,这对于所有的这些zkEVM或其他zk网络都是一个很好的事情。
4、主持人 LonersLiu:请问Opside在做zk-RaaS时,假设有很多算力,你们会如何分配算力?或者说会以什么方式去激励更多的参与方来服务网络?
目前,有很多zk Rollup已经部署在了以太坊或BSC上,但它们之间都是割裂的。举一个很简单的例子,现在已经上主网的Polygon zkEVM和zkSync Era,二者之间没有任何关系。资产在Polygon上和在zkSync上是完全两个不同的账户,底层的算力和算法也都完全不一样。
NanFeng:这实际上是传统的POW和zkEVM的POW最大的不同。因为传统的POW比如说比特币计算工作都是毫无意义的只是计算哈希而已。但是在zkEVM角度,它的计算工作实际上是ZKP的算力,但它本身并不用于整个系统的分叉,因为整个系统的共识仍然是由上一层Opside来决定的。生成的ZKP唯一作用就是验证其中的某一个sequence(排序器)是否正确,分不分叉其实是由Opside来决定。
6、主持人 LonersLi:请Sputnik分享是 FOX如何思考代币激励的?
因些L2选择单独发币,而有些L2选择继续使用L1的代币。如果单独发币就意味着在Layer上部署合约及执行交易所用的GAS需要单独购买,不但会给用户带来不便,对项目来说也不是一件好事。无论机制如何,在手续费方面的设计宗旨都应该是服务于用户,不要让他陷入复杂的置换当中。
Fox 也一直在研究这个机制,先讲一个简单攻击:比如有节点提交了一个证明获得了相应的代币激励。那么,当他提交一个可靠计算证明之后,是不是其他节点也可以马上抄他的Proof(证明)、赶快去提交,甚至还会出现抢跑。这就需要思考如何让他们生成不同的证明,这需要在它的电路当中融入一些独特的信息。
不过,虽然这些隐私信息可能被泄露,但不至于出现伪造这笔交易或者后续的交易的情况。同时泄露的范围,也仅仅是把交易的隐私泄露给这个节点而已。
8、主持人 LonersLiu:如果说 GPT3 代表了 AI 走向主流的一个代表事件,背后是数据训练到一定程度,你们觉得什么事会让 zk 真正走向主流呢,最近也经常有人提 zk 和 AI 结合,你们怎么看这个方向 ?
因为 zkEVM虽然是Web3和区块链领域的一个非常大的创新,但它只解决这些领域的特定问题。而zkWASM、 zkVM等解决的是Web 2里传统的计算有效性和隐私问题,只有zkWASM、zkVM两者互补后,才能解决几乎所有的计算问题。同时我们还需要将zk证明的速度提高,才能让 Web2 和Web3的计算都能放心的使用zkEVM。
zk能保证 AI模型的计算是有效的,以及能验证 AI模型背后的供应者身份,比如可以确认某个 AI 供应商是GhatGPT而不是文言一心等其它服务商。
Msfew :zk的优势在于简洁性,它的验证速度非常快速,且可以在任意的计算环境里去实现,比如浏览器、手机或者链上合约等等。在区块链领域,项目方要说服整个区块链网络去接受你的数据,就必须提供一个证明,且这个证明没有办法做的非常大非常复杂,这个时候确实更需要zk这样更简洁的证明方式。这也是为什么zk和区块链结合紧密的原因。
10、主持人 LonersLiu:AI领域,在ChatGPT将通用模型做得非常强大的情况下,出现了很多探索垂直领域的“ChatGPT”。类比到zk领域,当zkEVM完善的很好的时候,也有团队开始做针对某个应用的应用链。对于用户的特定需求,NanFeng 有什么样的看法?
因此未来可能是多链和多 Rollup长期共存的状态。有项目需要走多链模式,比如还需要特定的应用链,有的则会走Rollup路线。
11、主持人 LonersLiu: 回到之前的问题,关于zk 会什么时候走向真正的主流,zk和 AI 会如何结合?White Young有什么样的看法?
关于 zk 和 AI 的结合,我们设想在有大量用户和高性能需求的情况下,如果我们还坚持用原生的 gas 模型,可能一次 AI的调用gas 非常高,一个区块不一定能打包一笔交易或者一次 AI 交易的结果。所以,我们可以通过 zk 去压缩,将 AI 一个电路的交易尽可能用更好的交易规模来表达,让一个区块尽可能包含更多的交易。其次,我们可能还需要用一些新的 gas 计费模型来解决 gas 消耗问题。
Sputnik:我们首先需要思考zk到底带来了什么?我们认为zk提供的是一种穿透性,能帮我们去穿透一些信息差的黑盒。举个例子,小时候家长说要给我们保管压岁钱,存起来给我们长大的时候用,我们如何去相信他们真的有在保存呢,这中间有一个信息差,而zk 能做的就是能证明信息真实性的同时,还不用直接给对方看。
我们的zk组件可以帮助以太坊的共识被任意的场景验证,比如说手机浏览器甚至智能合约。可以说我们的zk预言机对于以太坊来说就是一个类似浏览器一样的应用,然后zk组件是对以太坊共识的增补。
13、主持人 LonersLiu:Vitalik提到未来以太坊Layer1也需要zk化的,在未来硬件加速很成熟的时代,有没有可能通过手机、电脑也可以做zk 证明?那未来这种 zk 硬件**的规模大概有多大?
此外,我们还要做一个 ZKP 的芯片,差不多会在明年 Q2 的时候推出。这款芯片的性能基本上是3090显卡的64倍,可以让很多复杂的ZKP计算在10s-20s内完成。
而规模应该还不小,毕竟有那么多 ZKP 项目,我们今年下半年也要成立一个 zk prove DAO。以Layer2的项目为例,他们对我们的芯片需求差不多在2000片左右,在加上Layer1和其它应用,粗略需求超过 1万片。
14、主持人 LonersLiu:关于zk领域未来的创新跟突破值得关注的方向?大家还有哪些补充。
Sputnik: 在跨链桥上也是一个zk应用的热点,FOX也做利用 zk的技术做了相应的开发。
White Young:首先要澄清一点 ,Ola 是一个支持隐私的平台,并不是一个只能做隐私的平台。也就是说未在我们平台做一些公开交易的时候,我们也是一个 zkEVM。
扩容肯定是zk或者整个区块链首先要解决的问题,不解决很难引入主流的应用进场。但在扩容方面牵扯到一个选择问题,你是从兼容性角度出发,还是从效率角度出发,不同的选择造就了不同的技术路线,比如scroll是从兼容性的角度出发,一开始考虑的是让将以太坊生态直接迁移过来,在此基础上再做一些效率提升。但Ola 先考虑的是效率问题,因此在底层做了一个完全zk友好型的虚拟机,再在此基础上去做兼容性,总的来说,zk的发展是先把扩容搞定,搞定后其它方面的机会才会随之而来。
声明:本站所有内容,如无特殊说明或标注,均为采集网络资源,任何内容均不构成投资建议。