万向区块链圆桌:AI 与 Web3.0 新叙事

原文作者:杜宇

原文来源:万向区块链

本文为「Future3 Salon圆桌讨论:AI与Web3.0新叙事」内容整理,有部分不影响原意的删改。

圆桌嘉宾:万向区块链实验室负责人、Future3 Campus发起人杜宇(主持人),RSS3 Founder Joshua,Dmail Cofounder James,rct.ai Founder Xiankun

杜宇(主持人):在我们正式开始提问之前,先请嘉宾做一个自我介绍。

James:我是Dmail的James。我是2018年进入Web3.0行业的,之前主要做AI。我从2012年开始做大数据分析和AI的数据产生,在AI领域大概有七八年的经验。我们项目主要是做基于邮件的去中心化的通信平台,是一个包含了邮件、消息的Web3.0应用。

杜宇(主持人):谢谢James。请显坤也做个简单的介绍。

Xiankun:我是rct.ai的Xiankun。我们主要做的方向虽然产品很多,但是一言以蔽之就是AI Agency。我们从2018年开始做游戏中的AI NPC,至今有5年左右了。我们团队之前是做智能音箱类产品的,也算是广义上的Agency。我们的Web3.0项目叫Delysium,它广义上是个游戏。我们也有其他的产品,例如3月份发布的Lucy,这就类似于Web3.0里的Auto GPT。我觉得 Joshua讲得很好,开放互联网上面的信息分发很重要。我们主要focus用AI的Agency如何帮助大家执行任务,以及用大语言模型去理解大家的意图。我们会更偏向于不仅仅是信息的分发,而是意图和任务的执行上面。

杜宇(主持人):刚好今天的三位嘉宾分别代表不同的层面,有去中心化的通信协议、消息分发的协议和执行的Agency。刚刚Joshua讲了很多,接下来,我和各位嘉宾都将各自问Joshua一个问题。

开放互联网,或者说在Web3.0里面,大家很多时候都提到数据主权,认为用户真正地拥有了自己的数据,但其实我觉得这里面可能还是会有很多的误区。例如,刚刚Joshua在搜Vitalik最近的活动,尤其是他在链上的NFT或转账交易,其实Vitalik并不拥有这些数据,因为这些所有的数据都是公开的。我们以前说的是这些数据为平台公司所有,但如今数据不再为平台公司所有了,但用户也并没有拥有这些数据,因为这些数据是在互联网上,每个人都可以触达的,它其实是个公开的数据。我的问题是开放互联网和个人数据主权与隐私有冲突吗?

Joshua:我觉得这个事情是不冲突的。过去,隐私的处理方式通常是进行一个授信性的转移。例如,我发朋友圈设置只对我老婆可见,相当于我相信腾讯公司不会把这个信息泄露给其他人,这是一种信任的转移。包括通讯或某种版权性信息的使用或解锁,其实通常都有一个中间方或broker,根据需求来执行操作,但他是否执行了,以及执行的好坏却很难察觉,除非这个结果已经出现了。

对于整个Web3.0来说,则类似于所有人都明确知道自己的东西是公开的,在这种前提下,某种程度上用户会被迫使用加密技术来保护隐私,反而让整个信息更安全。例如,如果我们互相之间发的所有消息是其他人都可查的,那么你肯定会确保你发的消息都是加密的,只有另一个能解。

On the other hand,因为这里面没有授信方保护你的隐私,所以每一个人都应该使用加密技术来保护自己的隐私,这也是区块链技术本身的初衷。所以我觉得这两者不是冲突的关系,而是整个关系被转换了,从授信方的转移变成了信任代码,所谓的代码即法律,加密是不会出现问题的,这个是目前区块链里面的实际情况。当然了,如果想要实现包括转账之类的事情,它会很复杂,不过我们也可以问一下GPT,GPT这里更多的指代的是区块链地址与真人之间的关系。

杜宇(主持人):对,确实很多人也在这么用,通过不同的地址隔离来实现自己的隐私。

Joshua:对,是这样的。GPT也提到说可能在算法或加密技术有一些进步后,也有可能能够把它做得更好。

杜宇(主持人):对,所以GPT后面讲得还是挺完备的,还是一个不错的答案。我们另外两位嘉宾对这个问题有什么想补充的吗?有没有什么GPT没有提到的观点?

Xiankun:我前几天在跟人讨论这个问题。区块链领域最喜欢讨论的两个概念是隐私和去中心化。但是我觉得首先要理清概念,“‘隐私’隐的到底是什么”以及“‘去中心化’去的到底是什么中心”。

一直以来这个概念都很模糊不清,但我认为其核心跟 GPT说的有点类似,它其实保护的是你的生物信息是Physical ID跟你经济活动之间的脱钩,但是有很多人是主动把这些连在一起。如果用户严格地隔离自己的生物信息与经济活动的话,某种意义上是可以匿名的。因此,我觉得匿名指的是跟生物信息层面的不匿名,这与地址透明性保证不冲突,因为它的生物信息跟地址隔离了。第二个,关于“‘去中心’去到底是什么中心”,这个的关键不是有多少个节点,而是去暴利的中心,即要保证网络得是permissionless的。

所以我觉得理清这个概念挺重要的,我认为匿名仅仅就是指的匿生物信息,区中心中化指的就是在permissionless的前提下保证暴利中心不会出现。

杜宇(主持人):好的,谢谢。Dmail在消息分发的过程中一定也会遇到很多这样的情况,你们如何解决隐私的问题?或者说你们认为哪些是属于开放互联网中需要公开的信息,哪些是需要保护大家隐私的方面?

James:在Dmail的应用场景和数据存储场景中有好几类的数据。我们所有的数据都是去中心化存储的,包括消息、邮箱信息、transaction这三个性动作都是on chain的。所以我们认为Web3.0的数据分为两类,第一类是完全公开透明的数据,例如用户所有的操作、行为用户使用的历史数据,是完全去中心化,而且完全透明的。第二类是用户的profile,即用户的个人数据,包括用户的一些基本的信息、用户地址等,这些都属于个人私有的数据。

Web3.0和AI有很大的关系, AI需要大量数据进行训练和学习,所以我们只需要把用户的历史行为和用户透明化的数据进行学习和筛选就可以了。但是对于用户个人的数据,以及一些由用户自己控制的私有数据,我们是需要通过用户授权才能让其他的AI使用。当前主要是通过加密算法来保证用户的数据隐私,因为虽然用户的行为是透明的,其他人知道用户做了某件事情,但是详细的信息是其他人不知道的,他们只知道用户有某些行为,但是具体行为所代表的内容实际上是没有人会知道的。我们当前采用的方案是用私钥和公钥进行加密的,这样做的好处是发送方和接收方能够得到信息的详情,但又保证了整个的数据的透明性。这个是我们当前使用得比较多的方案,包括我们存储方面也是通过私钥加密的,这是我们当前保护隐私的方法。

杜宇(主持人):对,隐私保护之前先得对现有的数据进行分类,哪些数据必须要保护、哪些数据不需要保护等,以及不同的数据保护的级别也都不一样。刚刚Joshua问到GPT、AI和Web3.0的结合,其实最近可能大家或多或少都看到过AI和Web3.0结合的文章。这些文章大多是从两个角度进行阐述的:一个是 AI怎么帮助Web3.0,这个会更多一些,因为 AI最近的突破其实是很重要的生产力的工具,不管是写代码、写文章,还是提升用户交互体验等。另一个是Web3.0怎么帮助AI,例如用NFT对AIGC的文章进行版权保护以及在后续的授权、使用、交易等场景中的应用。今天的嘉宾好几位都有多年的AI和Web3.0背景,我想请各位结合各自的创业领域,谈谈你们最看好的AI+Web3.0结合的方向。

James:Web3.0数据的优势在于去中心化、透明和用户具有数据的控制权,这代表Web3.0的数据对于所有人,包括AI都是完全开放的。因为AI需要大量的数据进行训练,这是训练端,而落地端就是要让 AI所产生的内容应用到不同的人身上,这其实是两个不同的点。所以我们觉得Web3.0天生的优势在于其数据是开放的,因此AI对于on chain的data的分析和洞察有特别好的优势。

我们知道,Web3.0每天产生的数据都是实时且有效的,所以Web3.0行业来说,AI能够引入更多分析的能力,对Web3.0的数据和一些on chain data进行挖掘。当然,这里面可能会有很多不同的使用方式,但通过machine learning去做数据的历史交易记录分析、用户使用行为标签,能够让项目方对用户意识的行为进行更好的分析,然后通过历史的分析为用户提供个性化的信息推送、信息订阅等功能,从而更好地帮助项目方提升与用户之间互动的粘性,让项目方和用户之间能够更好地结合,产生更大的效益。

杜宇(主持人):类似于 AI给每个人都配了一个专业的小助理,你不用管它用的分析方法是什么,你直接提问, AI就会给你处理好的答案。

James:其实我认为AI未来是会改变互联网以及Web3.0整个行业的,未来的行为模式都会不一样。例如,个人用户现在获取数据都是通过使用搜索的方式,但是未来可能每个人都会有自己的助理。针对每个人不同的使用方式,他的助理也会产生不同的提示或帮助。

Xiankun:我们专注的方向是如何用AI提升crypto的体验,因为我们一直做的事情就是AI Agency。过去可能因为语言模型能力的缘故,所以AI对于输入的理解是不够的,但以现在的语言模型的能力,AI对输入的理解能力可能会变强。这就相当于是未来每个人都能掌握做更复杂的工作的能力,就像刚刚说的小助手,它可以帮助你完成很多的事情。James刚才讲了AI更多是做链上数据分析,但我们做的很多东西是链上的执行。例如,转账、NFT抵押等简单的任务,以及创建1000个简报之类的复杂任务可能是传统的就是GUI很难完成的,或比较麻烦的。但是如果有这样一个不仅可以查信息,还可以执行的助理,工作难度可能会更低一些。

我有时候会想,也许区块链是给AI设计的,机器跟机器对话可能比人跟机器对话的效率要更高一些。如果中间有AI这一层的话,使用Web3.0的体验或许会变得更好,尤其现在在Web3.0里面有很多非常复杂的protocol,如果用小助理的话,体验可能会变得更好。

当然了,这不仅是说模型的能力有多强,也包含了其母话题——人机交互的设计问题。机器对于人的理解可能就是通过中间层AI的能力,基于语言的交互模型,它能更好地理解人的意图,那么语言模型所占的比重可能会提高,这样可能会引发更多的变化,不仅是我们今天看到的分析链上数据分析或执行工作。我们在做这些产品的过程中,我真切体会到在建设了这么多的底层设施之后,如果我们在同一个公用的数据库上做Agency的难度更低某种意义上效果会更好。

Joshua:我觉得AI与Web3的结合应用中,资产化是最容易的。不管是对prompt、模型或其它东西,直接进行资产化应该是门槛最低的,因为图片、模型、使用权、著作权、版权等都可以被资产化,这是Web3跟AI结合最简单、直观的方式。

从可见未来来说,最合理的是用开放数据作为训练集,刚才的例子中也提到,如果在开放网里大量出现新信息或者新数据将成为 AI继续发展的重要燃料,因为AI的发展需要不断输入数据让它变得更好,这是属于较为比较合理、客观的使用方法。当然这里面会有其他的问题,例如如何给信息提供者奖励等。

最有争议的可能是基于某种博弈的训练,因为对任意一个模型都有特定的偏好的,例如刚才对GPT提出的一些问题,由于它数据训练集的差异和理解不同,可能会有某种情况是通过Token或资产化方式进行博弈训练,即出钱多的一方,其意图更有可能被训练到某个模型里面。

最科幻的是去中心化训练,不管是联邦学习或任意一种分散算力训练的方法,目前都尚未成熟,现在有一些新的项目也在做,但是这其实是特别困难的方向,因为把这种需要大规模中性化算力的任务做拆解很难,同时还要考虑到经济上的可行性是在和像英伟达等顶级的芯片制造商的竞争关系。

虽然中长尾部如果可以被聚集起来就有大量的闲置算力,但这种闲置算力是不是真的可以被运过来,运过来之后会不会经济上的效能比英伟达一直在发展的顶级解决方案或芯片更好,这个是很难讲的,因为目前双方在稳定性和经济性上差距是比较大的。

接下来我们问一下GPT:Web3和AI最好的结合方式。

杜宇(主持人):我觉得你刚才提的博弈训练是很有趣的一个话题,值得深入探讨,因为这不仅是技术的问题,更多的是社会公平性的问题。

GPT:1. 去中心化AI市场: Web3可以创建一个去中心化的AI市场,使得开发者、数据科学家和用户可以在一个开放、透明的环境中交易和使用AI模型。这样的市场可以通过智能合约来确保交易的公正性和安全性。2. 数据隐私和安全:Al需要大量的数据来进行训练,但这引发了数据隐私和安全的问题Web3可以通过区块链技术来保护数据的安全性,同时通过零知识证明等技术来保护数据的隐私。3.去中心化的机器学习: 通过Web3,我们可以创建一个去中心化的机器学习网络,其中每个节点都可以贡献其计算资源来进行模型的训练。这样的网络可以通过代币激励来鼓励节点的参与。4.AI驱动的智能合约:A可以用来驱动智能合约的执行,例如,通过预测市场动态来自动调整代币的价格,或者通过分析用户行为来自动执行某些操作。5.AI在区块链治理中的应用:AI可以用来帮助区块链社区进行决策,例如,通过分析社区成员的行为和意见来生成治理提案,或者通过预测提案的影响来帮助社区成员进行投票。以上只是一些可能的结合方式,实际上,Web3和AI的结合可能会带来我们现在还无法想象的新应用和机会。

杜宇(主持人):我上次听一个项目分享提到,在进行升级的时候,社区投票完之后,系统会自动就进行升级,不需要基金会或者矿工主动地执行这件事情。过去如果发起一个提案,社区投票后,这件事情要不要做、由谁去做都是需要逐步执行的,但现在这些事情就可以让AI直接完成,这就回到显坤说的执行AI Agency正在执行的事情。

Xiankun:是这样的,没错。

杜宇(主持人):刚刚提到了资产化,我想更进一步讨论一下这个话题。现在每天的Email当中会收到大量的垃圾邮件,而现在因为AIGC的发展,内容输出变得很快。这样以来,以后的互联网上,无论是Web2.0还是Web3.0,会不会有大量的垃圾信息。Web3.0的金融基础设施能否真正地解决这些低价值或者垃圾信息爆炸的问题,只让有价值的东西上链,这样用户只要判断数据是否在链上,或只管理链上的经营行为就可以快速过滤低价值的内容。

Joshua:我觉得这是一个不可避免的事情,因为单位创作成本变低了,我们也没办法逆着潮流去做。人类创作的进化速度是远低于AI创作进化的速度的,可能现在好像还有点差别,但再过几年可能就没有差别,但未来AI是有可能超越正常人类的。但我认为更重要的是整个人社会怎么去用好这些东西,这里面肯定会出现大量伦理性、法规上的问题。

杜宇(主持人):我们是否可以通过经济激励的模型来解决这个问题?不一定所有的问题都要通过监管去解决,例如你今天每发一封邮件都需要付出成本,那么这些低价值密度的垃圾信息如果占用到Web3.0或者互联网资源就得付成本。

Joshua:对,这个可能是一个办法。当然成本也有可能是合规成本、经济成本、KYC成本等。但either way,肯定需要有一种方式来限制这件事情发生,但我不知道爆炸性内容发生会不会对整体上来说就已经是个坏的事情,也许爆炸性的内容会使每一个人都可以看到更个性化的内容,这个还很难讲。

James:我觉得这个点上我觉得可以跟大家分享一下,因为我们主要是基于消息的系统,所以里面实际上充斥了很多不同的信息,特别是垃圾邮件或垃圾信息是非常多的。但我们确实可以防范,也可以引入经济模型来解决这个问题。首先,让产生垃圾信息的成本增加。这是一个博弈的过程,要让这些产生内容的人,包括通过AI去产生内容的一些账号异常,或者让信息发送方的成本有一个增长的过程。随着垃圾邮件或者是垃圾信息的产生,成本越来越高,那么肯定就不会再有人做这件事情。如果能够得到的效益高你产生垃圾邮件的成本,那就会有越来越多的人去做这件事情,所以这是个博弈的过程。

我们曾设计过一个经济模型,即用户在发信息时需要抵押,当接收方会看到这条信息后,会对邮件进行自动化标注该信息是否为垃圾信息。随着不同的人某个发件人标注为垃圾信息,其发送信息的成本就会越来越高。如果在一段时间之内,账户没有被标为垃圾信息的产生者,那么用户抵押的会退回到原来的账户当中,项目方还会额外给予奖励。这基本上就是我们当前在处理这种信息时所采用的经济模型方案。除了经济模型,我们还会引入AI和KYC例如,我们会用KYC的方式将用户的地址标记出来,当然这个也是基于隐私的KYC了。

我觉得主要就是这几方面,一个是通过经济模型防范垃圾信息的大量产生。第二个就是通过AI的算法进行的过滤。第三个就是通过用户的标记方式。

杜宇(主持人):好的,谢谢James。显坤有什么要补充的?

Xiankun:我觉得现实世界中可行的方案是通过流动性或成本来防范垃圾信息,实际上它只是形成了在更大规模下面,更完整的经济系统的解决方案,只是跟Token没关系而已。所以我觉得Crypto的解决方案并不是Internative的答案。

杜宇(主持人):这是很有意思的话题,我们下次可以专门再就特定的一些话题进行深入讨论。今天大家观点都很精彩,谢谢大家。

转载声明:本文 由CoinON抓取收录,观点仅代表作者本人,不代表CoinON资讯立场,CoinON不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。若以此作为投资依据,请自行承担全部责任。

声明:图文来源于网络,如有侵权请联系删除

风险提示:投资有风险,入市需谨慎。本资讯不作为投资理财建议。

(0)
打赏 微信扫一扫 微信扫一扫
上一篇 2023年7月8日 下午7:32
下一篇 2023年7月12日 下午3:35

相关推荐

万向区块链圆桌:AI 与 Web3.0 新叙事

星期三 2023-07-12 15:35:24

本文为「Future3 Salon圆桌讨论:AI与Web3.0新叙事」内容整理,有部分不影响原意的删改。

圆桌嘉宾:万向区块链实验室负责人、Future3 Campus发起人杜宇(主持人),RSS3 Founder Joshua,Dmail Cofounder James,rct.ai Founder Xiankun

杜宇(主持人):在我们正式开始提问之前,先请嘉宾做一个自我介绍。

James:我是Dmail的James。我是2018年进入Web3.0行业的,之前主要做AI。我从2012年开始做大数据分析和AI的数据产生,在AI领域大概有七八年的经验。我们项目主要是做基于邮件的去中心化的通信平台,是一个包含了邮件、消息的Web3.0应用。

杜宇(主持人):谢谢James。请显坤也做个简单的介绍。

Xiankun:我是rct.ai的Xiankun。我们主要做的方向虽然产品很多,但是一言以蔽之就是AI Agency。我们从2018年开始做游戏中的AI NPC,至今有5年左右了。我们团队之前是做智能音箱类产品的,也算是广义上的Agency。我们的Web3.0项目叫Delysium,它广义上是个游戏。我们也有其他的产品,例如3月份发布的Lucy,这就类似于Web3.0里的Auto GPT。我觉得 Joshua讲得很好,开放互联网上面的信息分发很重要。我们主要focus用AI的Agency如何帮助大家执行任务,以及用大语言模型去理解大家的意图。我们会更偏向于不仅仅是信息的分发,而是意图和任务的执行上面。

杜宇(主持人):刚好今天的三位嘉宾分别代表不同的层面,有去中心化的通信协议、消息分发的协议和执行的Agency。刚刚Joshua讲了很多,接下来,我和各位嘉宾都将各自问Joshua一个问题。

开放互联网,或者说在Web3.0里面,大家很多时候都提到数据主权,认为用户真正地拥有了自己的数据,但其实我觉得这里面可能还是会有很多的误区。例如,刚刚Joshua在搜Vitalik最近的活动,尤其是他在链上的NFT或转账交易,其实Vitalik并不拥有这些数据,因为这些所有的数据都是公开的。我们以前说的是这些数据为平台公司所有,但如今数据不再为平台公司所有了,但用户也并没有拥有这些数据,因为这些数据是在互联网上,每个人都可以触达的,它其实是个公开的数据。我的问题是开放互联网和个人数据主权与隐私有冲突吗?

Joshua:我觉得这个事情是不冲突的。过去,隐私的处理方式通常是进行一个授信性的转移。例如,我发朋友圈设置只对我老婆可见,相当于我相信腾讯公司不会把这个信息泄露给其他人,这是一种信任的转移。包括通讯或某种版权性信息的使用或解锁,其实通常都有一个中间方或broker,根据需求来执行操作,但他是否执行了,以及执行的好坏却很难察觉,除非这个结果已经出现了。

对于整个Web3.0来说,则类似于所有人都明确知道自己的东西是公开的,在这种前提下,某种程度上用户会被迫使用加密技术来保护隐私,反而让整个信息更安全。例如,如果我们互相之间发的所有消息是其他人都可查的,那么你肯定会确保你发的消息都是加密的,只有另一个能解。

On the other hand,因为这里面没有授信方保护你的隐私,所以每一个人都应该使用加密技术来保护自己的隐私,这也是区块链技术本身的初衷。所以我觉得这两者不是冲突的关系,而是整个关系被转换了,从授信方的转移变成了信任代码,所谓的代码即法律,加密是不会出现问题的,这个是目前区块链里面的实际情况。当然了,如果想要实现包括转账之类的事情,它会很复杂,不过我们也可以问一下GPT,GPT这里更多的指代的是区块链地址与真人之间的关系。

杜宇(主持人):对,确实很多人也在这么用,通过不同的地址隔离来实现自己的隐私。

Joshua:对,是这样的。GPT也提到说可能在算法或加密技术有一些进步后,也有可能能够把它做得更好。

杜宇(主持人):对,所以GPT后面讲得还是挺完备的,还是一个不错的答案。我们另外两位嘉宾对这个问题有什么想补充的吗?有没有什么GPT没有提到的观点?

Xiankun:我前几天在跟人讨论这个问题。区块链领域最喜欢讨论的两个概念是隐私和去中心化。但是我觉得首先要理清概念,“‘隐私’隐的到底是什么”以及“‘去中心化’去的到底是什么中心”。

一直以来这个概念都很模糊不清,但我认为其核心跟 GPT说的有点类似,它其实保护的是你的生物信息是Physical ID跟你经济活动之间的脱钩,但是有很多人是主动把这些连在一起。如果用户严格地隔离自己的生物信息与经济活动的话,某种意义上是可以匿名的。因此,我觉得匿名指的是跟生物信息层面的不匿名,这与地址透明性保证不冲突,因为它的生物信息跟地址隔离了。第二个,关于“‘去中心’去到底是什么中心”,这个的关键不是有多少个节点,而是去暴利的中心,即要保证网络得是permissionless的。

所以我觉得理清这个概念挺重要的,我认为匿名仅仅就是指的匿生物信息,区中心中化指的就是在permissionless的前提下保证暴利中心不会出现。

杜宇(主持人):好的,谢谢。Dmail在消息分发的过程中一定也会遇到很多这样的情况,你们如何解决隐私的问题?或者说你们认为哪些是属于开放互联网中需要公开的信息,哪些是需要保护大家隐私的方面?

James:在Dmail的应用场景和数据存储场景中有好几类的数据。我们所有的数据都是去中心化存储的,包括消息、邮箱信息、transaction这三个性动作都是on chain的。所以我们认为Web3.0的数据分为两类,第一类是完全公开透明的数据,例如用户所有的操作、行为用户使用的历史数据,是完全去中心化,而且完全透明的。第二类是用户的profile,即用户的个人数据,包括用户的一些基本的信息、用户地址等,这些都属于个人私有的数据。

Web3.0和AI有很大的关系, AI需要大量数据进行训练和学习,所以我们只需要把用户的历史行为和用户透明化的数据进行学习和筛选就可以了。但是对于用户个人的数据,以及一些由用户自己控制的私有数据,我们是需要通过用户授权才能让其他的AI使用。当前主要是通过加密算法来保证用户的数据隐私,因为虽然用户的行为是透明的,其他人知道用户做了某件事情,但是详细的信息是其他人不知道的,他们只知道用户有某些行为,但是具体行为所代表的内容实际上是没有人会知道的。我们当前采用的方案是用私钥和公钥进行加密的,这样做的好处是发送方和接收方能够得到信息的详情,但又保证了整个的数据的透明性。这个是我们当前使用得比较多的方案,包括我们存储方面也是通过私钥加密的,这是我们当前保护隐私的方法。

杜宇(主持人):对,隐私保护之前先得对现有的数据进行分类,哪些数据必须要保护、哪些数据不需要保护等,以及不同的数据保护的级别也都不一样。刚刚Joshua问到GPT、AI和Web3.0的结合,其实最近可能大家或多或少都看到过AI和Web3.0结合的文章。这些文章大多是从两个角度进行阐述的:一个是 AI怎么帮助Web3.0,这个会更多一些,因为 AI最近的突破其实是很重要的生产力的工具,不管是写代码、写文章,还是提升用户交互体验等。另一个是Web3.0怎么帮助AI,例如用NFT对AIGC的文章进行版权保护以及在后续的授权、使用、交易等场景中的应用。今天的嘉宾好几位都有多年的AI和Web3.0背景,我想请各位结合各自的创业领域,谈谈你们最看好的AI+Web3.0结合的方向。

James:Web3.0数据的优势在于去中心化、透明和用户具有数据的控制权,这代表Web3.0的数据对于所有人,包括AI都是完全开放的。因为AI需要大量的数据进行训练,这是训练端,而落地端就是要让 AI所产生的内容应用到不同的人身上,这其实是两个不同的点。所以我们觉得Web3.0天生的优势在于其数据是开放的,因此AI对于on chain的data的分析和洞察有特别好的优势。

我们知道,Web3.0每天产生的数据都是实时且有效的,所以Web3.0行业来说,AI能够引入更多分析的能力,对Web3.0的数据和一些on chain data进行挖掘。当然,这里面可能会有很多不同的使用方式,但通过machine learning去做数据的历史交易记录分析、用户使用行为标签,能够让项目方对用户意识的行为进行更好的分析,然后通过历史的分析为用户提供个性化的信息推送、信息订阅等功能,从而更好地帮助项目方提升与用户之间互动的粘性,让项目方和用户之间能够更好地结合,产生更大的效益。

杜宇(主持人):类似于 AI给每个人都配了一个专业的小助理,你不用管它用的分析方法是什么,你直接提问, AI就会给你处理好的答案。

James:其实我认为AI未来是会改变互联网以及Web3.0整个行业的,未来的行为模式都会不一样。例如,个人用户现在获取数据都是通过使用搜索的方式,但是未来可能每个人都会有自己的助理。针对每个人不同的使用方式,他的助理也会产生不同的提示或帮助。

Xiankun:我们专注的方向是如何用AI提升crypto的体验,因为我们一直做的事情就是AI Agency。过去可能因为语言模型能力的缘故,所以AI对于输入的理解是不够的,但以现在的语言模型的能力,AI对输入的理解能力可能会变强。这就相当于是未来每个人都能掌握做更复杂的工作的能力,就像刚刚说的小助手,它可以帮助你完成很多的事情。James刚才讲了AI更多是做链上数据分析,但我们做的很多东西是链上的执行。例如,转账、NFT抵押等简单的任务,以及创建1000个简报之类的复杂任务可能是传统的就是GUI很难完成的,或比较麻烦的。但是如果有这样一个不仅可以查信息,还可以执行的助理,工作难度可能会更低一些。

我有时候会想,也许区块链是给AI设计的,机器跟机器对话可能比人跟机器对话的效率要更高一些。如果中间有AI这一层的话,使用Web3.0的体验或许会变得更好,尤其现在在Web3.0里面有很多非常复杂的protocol,如果用小助理的话,体验可能会变得更好。

当然了,这不仅是说模型的能力有多强,也包含了其母话题——人机交互的设计问题。机器对于人的理解可能就是通过中间层AI的能力,基于语言的交互模型,它能更好地理解人的意图,那么语言模型所占的比重可能会提高,这样可能会引发更多的变化,不仅是我们今天看到的分析链上数据分析或执行工作。我们在做这些产品的过程中,我真切体会到在建设了这么多的底层设施之后,如果我们在同一个公用的数据库上做Agency的难度更低某种意义上效果会更好。

Joshua:我觉得AI与Web3的结合应用中,资产化是最容易的。不管是对prompt、模型或其它东西,直接进行资产化应该是门槛最低的,因为图片、模型、使用权、著作权、版权等都可以被资产化,这是Web3跟AI结合最简单、直观的方式。

从可见未来来说,最合理的是用开放数据作为训练集,刚才的例子中也提到,如果在开放网里大量出现新信息或者新数据将成为 AI继续发展的重要燃料,因为AI的发展需要不断输入数据让它变得更好,这是属于较为比较合理、客观的使用方法。当然这里面会有其他的问题,例如如何给信息提供者奖励等。

最有争议的可能是基于某种博弈的训练,因为对任意一个模型都有特定的偏好的,例如刚才对GPT提出的一些问题,由于它数据训练集的差异和理解不同,可能会有某种情况是通过Token或资产化方式进行博弈训练,即出钱多的一方,其意图更有可能被训练到某个模型里面。

最科幻的是去中心化训练,不管是联邦学习或任意一种分散算力训练的方法,目前都尚未成熟,现在有一些新的项目也在做,但是这其实是特别困难的方向,因为把这种需要大规模中性化算力的任务做拆解很难,同时还要考虑到经济上的可行性是在和像英伟达等顶级的芯片制造商的竞争关系。

虽然中长尾部如果可以被聚集起来就有大量的闲置算力,但这种闲置算力是不是真的可以被运过来,运过来之后会不会经济上的效能比英伟达一直在发展的顶级解决方案或芯片更好,这个是很难讲的,因为目前双方在稳定性和经济性上差距是比较大的。

接下来我们问一下GPT:Web3和AI最好的结合方式。

杜宇(主持人):我觉得你刚才提的博弈训练是很有趣的一个话题,值得深入探讨,因为这不仅是技术的问题,更多的是社会公平性的问题。

GPT:1. 去中心化AI市场: Web3可以创建一个去中心化的AI市场,使得开发者、数据科学家和用户可以在一个开放、透明的环境中交易和使用AI模型。这样的市场可以通过智能合约来确保交易的公正性和安全性。2. 数据隐私和安全:Al需要大量的数据来进行训练,但这引发了数据隐私和安全的问题Web3可以通过区块链技术来保护数据的安全性,同时通过零知识证明等技术来保护数据的隐私。3.去中心化的机器学习: 通过Web3,我们可以创建一个去中心化的机器学习网络,其中每个节点都可以贡献其计算资源来进行模型的训练。这样的网络可以通过代币激励来鼓励节点的参与。4.AI驱动的智能合约:A可以用来驱动智能合约的执行,例如,通过预测市场动态来自动调整代币的价格,或者通过分析用户行为来自动执行某些操作。5.AI在区块链治理中的应用:AI可以用来帮助区块链社区进行决策,例如,通过分析社区成员的行为和意见来生成治理提案,或者通过预测提案的影响来帮助社区成员进行投票。以上只是一些可能的结合方式,实际上,Web3和AI的结合可能会带来我们现在还无法想象的新应用和机会。

杜宇(主持人):我上次听一个项目分享提到,在进行升级的时候,社区投票完之后,系统会自动就进行升级,不需要基金会或者矿工主动地执行这件事情。过去如果发起一个提案,社区投票后,这件事情要不要做、由谁去做都是需要逐步执行的,但现在这些事情就可以让AI直接完成,这就回到显坤说的执行AI Agency正在执行的事情。

Xiankun:是这样的,没错。

杜宇(主持人):刚刚提到了资产化,我想更进一步讨论一下这个话题。现在每天的Email当中会收到大量的垃圾邮件,而现在因为AIGC的发展,内容输出变得很快。这样以来,以后的互联网上,无论是Web2.0还是Web3.0,会不会有大量的垃圾信息。Web3.0的金融基础设施能否真正地解决这些低价值或者垃圾信息爆炸的问题,只让有价值的东西上链,这样用户只要判断数据是否在链上,或只管理链上的经营行为就可以快速过滤低价值的内容。

Joshua:我觉得这是一个不可避免的事情,因为单位创作成本变低了,我们也没办法逆着潮流去做。人类创作的进化速度是远低于AI创作进化的速度的,可能现在好像还有点差别,但再过几年可能就没有差别,但未来AI是有可能超越正常人类的。但我认为更重要的是整个人社会怎么去用好这些东西,这里面肯定会出现大量伦理性、法规上的问题。

杜宇(主持人):我们是否可以通过经济激励的模型来解决这个问题?不一定所有的问题都要通过监管去解决,例如你今天每发一封邮件都需要付出成本,那么这些低价值密度的垃圾信息如果占用到Web3.0或者互联网资源就得付成本。

Joshua:对,这个可能是一个办法。当然成本也有可能是合规成本、经济成本、KYC成本等。但either way,肯定需要有一种方式来限制这件事情发生,但我不知道爆炸性内容发生会不会对整体上来说就已经是个坏的事情,也许爆炸性的内容会使每一个人都可以看到更个性化的内容,这个还很难讲。

James:我觉得这个点上我觉得可以跟大家分享一下,因为我们主要是基于消息的系统,所以里面实际上充斥了很多不同的信息,特别是垃圾邮件或垃圾信息是非常多的。但我们确实可以防范,也可以引入经济模型来解决这个问题。首先,让产生垃圾信息的成本增加。这是一个博弈的过程,要让这些产生内容的人,包括通过AI去产生内容的一些账号异常,或者让信息发送方的成本有一个增长的过程。随着垃圾邮件或者是垃圾信息的产生,成本越来越高,那么肯定就不会再有人做这件事情。如果能够得到的效益高你产生垃圾邮件的成本,那就会有越来越多的人去做这件事情,所以这是个博弈的过程。

我们曾设计过一个经济模型,即用户在发信息时需要抵押,当接收方会看到这条信息后,会对邮件进行自动化标注该信息是否为垃圾信息。随着不同的人某个发件人标注为垃圾信息,其发送信息的成本就会越来越高。如果在一段时间之内,账户没有被标为垃圾信息的产生者,那么用户抵押的会退回到原来的账户当中,项目方还会额外给予奖励。这基本上就是我们当前在处理这种信息时所采用的经济模型方案。除了经济模型,我们还会引入AI和KYC例如,我们会用KYC的方式将用户的地址标记出来,当然这个也是基于隐私的KYC了。

我觉得主要就是这几方面,一个是通过经济模型防范垃圾信息的大量产生。第二个就是通过AI的算法进行的过滤。第三个就是通过用户的标记方式。

杜宇(主持人):好的,谢谢James。显坤有什么要补充的?

Xiankun:我觉得现实世界中可行的方案是通过流动性或成本来防范垃圾信息,实际上它只是形成了在更大规模下面,更完整的经济系统的解决方案,只是跟Token没关系而已。所以我觉得Crypto的解决方案并不是Internative的答案。

杜宇(主持人):这是很有意思的话题,我们下次可以专门再就特定的一些话题进行深入讨论。今天大家观点都很精彩,谢谢大家。