作者:Mohamed Fouda,AllianceDAO 编译:Cecilia,bfrenz DAO
本文将探讨 AI 如何实现新的有趣的 Web3 用例,但更重要的是诠释 Web3 和 AI 之间的互利关系。
自从 ChatGPT 和 GPT-4 推出后不久,关于 AI 如何彻底改变包括 Web3 在内的一切的内容就层出不穷了。多行业的开发人员都表示,通过利用 ChatGPT 作为解决方案,生产力显着提高了 50% 到 500%。比如作为开发人员的一个副手,自动执行任务,比如生成样板代码、进行单元测试、创建文档、调试和检测漏洞。
虽然本文将探讨 AI 如何实现新的有趣的 Web3 用例,但更重要的是诠释 Web3 和 AI 之间的互利关系。很少有技术有可能对 AI 的发展轨迹产生重大影响,Web3 就是其中之一。
为不会编程的游戏玩家生成bot
像 Dark Forest 这种基于区块链的游戏创造了一种独特的玩法,玩家可以通过开发和部署执行游戏任务的"机器人"来获得优势。然而,这种新的玩法可能会使那些不懂编程的玩家感到被排除在外。不过,人工智能语言模型(LLM)的出现可能会改变这一状况。通过理解区块链游戏的规则,然后利用这些规则创建能够反映玩家策略的"机器人",而无需玩家自己编写代码。例如,项目如 Primodium 和 AI Arena 正在尝试让人类玩家和 AI 玩家一同参与游戏,而无需编写复杂的代码。
用 bot战斗或下注
另一种链上游戏的可能性是完全自动化的人工智能玩家。在这种情况下,玩家本身就是一个人工智能代理,比如 AutoGPT,它使用人工智能语言模型(LLM)作为后端,并且可以访问互联网和可能的初始加密货币资金等外部资源。这些人工智能玩家可以参与类似机器人大战的竞猜游戏。这将为投机和押注这些竞猜结果的玩家提供一个市场。这样的市场可能会催生出全新的游戏体验,既具有策略性又能够吸引更广泛的玩家群体,无论他们是否精通编程。
为链上游戏创建逼真的NPC环境
如今,许多游戏往往在 NPC 方面表现较为单一,它们的行动有限,对游戏进程的影响相对较小。然而,在人工智能和 Web3 的相互作用下,我们有可能创造出更引人入胜的 NPC 环境,从而颠覆游戏的可预测性,使其变得更加有趣。其中一个关键的前提是引入更具吸引力的人工智能控制的 NPC。
然而,在创造逼真的 NPC 环境时,我们面临着一个潜在挑战:如何引入富有意义的NPC动态,同时又能够将与这些活动相关的吞吐量(每秒事务处理量,TPS)最小化。过高的NPC活动所需的TPS可能会导致网络拥塞,影响到实际玩家的游戏体验。
通过这些新的玩法和可能性,区块链游戏正在朝着更加多样化和包容性的方向发展,使更多类型的玩家都能够参与进来,共同体验游戏的乐趣。
在当今,去中心化社交(DeSo)平台面临一个挑战,即相较于现有中心化平台,它们难以提供独特的用户体验。然而,通过与AI 的无缝集成,我们可以为 Web 2 的替代方案带来独特的体验。举个例子,由 AI 管理的账户可以通过分享相关内容、评论帖子以及参与讨论来吸引新用户加入网络。此外, AI 账户还能够实现新闻聚合,汇总与用户兴趣相符的最新趋势。这种整合 AI 的方法将为去中心化社交媒体平台带来更多创新,吸引更多用户的加入。
以基于 LLM 的AI 助理为基础,我们有机会对去中心化网络的安全性和经济稳健性进行实际测试。这种代理能够定义目标、创建代码并执行这些代码,从而为评估去中心化协议的安全性和经济设计提供了新的视角。在这一过程中,AI 助理被引导去利用协议的安全性和经济平衡。它首先可以检查协议文档和智能合约,找出潜在弱点。然后,它可以独立竞争执行攻击协议的机制,以最大化自身的收益。这一方法模拟了协议启动后可能遇到的实际环境。通过这些测试结果,协议设计者可以检查协议的设计并修补潜在的弱点。目前,只有像 Gauntlet 等专业公司具备为去中心化协议提供此类服务的技术技能。但是,通过对 LLM 进行 Solidity、 DeFi 机制以及以往利用机制等方面的培训,我们期待 AI 助理能够提供类似的功能。
虽然区块链数据是公共的,但索引和提取有用见解始终是一个挑战。某些参与者(如 CoinMetrics)专门从事索引数据和构建复杂指标以进行销售,而其他参与者(如 Dune)则专注于对原始交易的主要组成部分进行索引,并通过社区贡献来提取部分指标。近期 LLM 的进展显示出,数据索引和指标提取可能会迎来革命。区块链数据公司 Dune 已经认识到了这一潜在威胁,并宣布 LLM 路线图包括 SQL 查询解释和基于 NLP 查询的潜在组件。然而,我们预测 LLM 的影响将更深远。一种可能性是基于 LLM 的索引,其中 LLM 模型能够直接与区块链节点交互,为特定指标的数据建立索引。初创公司 Dune Ninja 等已经开始探索基于 LLM 的创新数据索引应用程序。
不同的区块链网络吸引开发者来构建应用程序。Web3 开发者活动是评估生态系统成功的重要指标之一。然而,开发人员在开始学习和构建新生态系统时,常常会遇到支持方面的困难。生态系统已经通过专门的 Dev Rel 团队投入数百万美元,以支持开发人员在探索生态系统中更好地发展。在这个领域,新兴的 LLM 展示了惊人的成就,它可以解释复杂代码、捕获错误,甚至创建文档。经过微调的 LLM 可以补充人类的经验,从而显著提高开发团队的生产力。例如,LLM 可以用于创建文档、教程,回答常见问题,甚至可以为黑客马拉松中的开发人员提供样板代码或创建单元测试。这些都将有助于促进开发人员的积极参与,推动整个生态系统的成长。
通过将 AI 融入 DeFi 协议的逻辑中,可以显著提升众多 DeFi 协议的性能。目前,将 AI 应用于 DeFi 领域的主要难题之一是在链上实施 AI 的成本较高。尽管可以在链下实现 AI 模型,但之前无法验证模型的执行情况。然而,通过诸如 Modulus 和 ChainML 等项目,链下执行的验证正逐渐变为现实。这些项目允许在链外执行机器学习模型,同时限制链上的成本开销。在 Modulus的情况下,链上的费用仅用于验证模型的零知识证明(ZKP)。而在 ChainML 的案例中,链上的成本是用于向去中心化 AI 执行网络支付预言机费用。
以下是一些可能从 AI 集成中受益的DeFi使用案例:
AMM 流动性配置:例如,更新 Uniswap V3 的流动性范围。通过整合人工智能,协议可以更加智能地调整流动性范围,从而提高 AMM(自动做市商)的效率和收益。
清算保护与债务头寸:结合链上和链下数据,可以实现更有效的清算保护策略,保护债务头寸不受市场波动影响。
复杂的 DeFi 结构化产品:设计金库机制时,可以依赖金融人工智能模型而不是固定策略。这样的策略可能包括由人工智能管理的交易、贷款或期权,从而提高产品的智能性和灵活性。
先进的链上信用评分机制:考虑不同区块链上不同钱包的情况,整合人工智能可以帮助构建更精确和全面的信用评分系统,从而更好地评估风险和机会。
通过利用这些 AI 集成的案例,DeFi 领域可以更好地适应不断变化的市场需求,提高效率,降低风险,并为用户创造更多价值。同时,随着链下验证技术的不断发展,AI 在 DeFi 中的应用前景也将进一步拓展。
虽然现有 AI 模型已经展现出巨大的潜力,但在数据隐私、特有模型执行的公平性以及虚假内容的创建和传播方面仍然面临挑战。在这些领域,Web3技术的独特优势可能发挥重要作用。
Web3 可以协助 AI 的领域之一是协作创建用于机器学习 (ML) 训练的专有数据集,即用于数据集创建的 PoPW 网络。海量数据集对于准确的 ML 模型至关重要,但如何获取这些数据,如何创建这些数据集可能会成为瓶颈,特别是在需要私有数据的用例中,比如使用 ML 进行医学诊断,围绕患者数据的隐私问题构成了重大障碍,因为训练这些模型需要访问医疗记录。然而,出于隐私考虑,患者可能不愿分享他们的医疗记录。为了解决这个问题,患者可以对他们的医疗记录进行可验证的匿名化处理,以保护他们的隐私,同时仍然可以在机器学习训练中使用这些记录。
然而,匿名处理后的数据的真实性可能令人担忧,因为虚假数据可能会极大地影响模型性能。这时,零知识证明(ZKP)可以用来验证匿名处理后的数据的真实性。患者可以生成ZKP,以证明匿名记录确实是原始记录的副本,即使在删除个人身份信息(PII)后也是如此。这种方法既保护了隐私,又确保了数据的可信度。
当前,大型语言模型(LLM)存在一个重要问题,即如何处理私有数据。举例来说,当用户与ChatGPT进行交互时,OpenAI会收集用户的私有数据,并将其用于模型的训练,从而引发敏感信息的泄露。近期的案例中,有员工在使用ChatGPT辅助办公时不小心泄露了涉密数据,这使得这个问题更加突出。零知识(ZK)技术有望解决机器学习模型在处理私人数据时出现的问题。在这里,我们将探讨两种场景:开源模型和专有模型。
对于开源模型,用户可以下载模型并在本地私有数据上运行。举例来说,Worldcoin的“World ID”升级计划(“ZKML”)需要处理用户的生物特征数据,如虹膜扫描,以创建每个用户的独特标识符(IrisCode)。在这种情况下,用户可以在保护其生物特征数据隐私的情况下下载IrisCode生成的机器学习模型,并在本地运行。通过创建零知识证明(ZKP),用户可以证明他们已经成功生成了 IrisCode ,从而保证了推理的真实性,同时保护了数据隐私。重要的是,高效的ZK证明机制(如Modulus Labs开发的机制)在训练机器学习模型时具有关键作用。
另一种情况是,当用于推理的机器学习模型是专有的时,情况会稍微复杂。因为在本地进行推理可能不是一个选项。然而,零知识证明可以通过两种可能的方式来帮助解决问题。第一种方法是在将匿名化数据发送到机器学习模型之前,使用 ZKP 对用户数据进行匿名化处理,正如前面在数据集创建案例中所讨论的。另一种方法是在将预处理输出发送到机器学习模型之前,对私有数据进行本地预处理。在这种情况下,预处理步骤隐藏了用户的私有数据,使其无法重构。用户可以生成 ZKP 来证明预处理步骤的正确执行,而模型的其他专有部分可以在模型所有者的服务器上远程执行。这些示例用例可能包括能够分析患者医疗记录以进行潜在诊断的 AI 医生,以及评估客户私人财务信息以进行金融风险评估的算法。
通过 ZK 技术,Web3可以提供更高的数据隐私保护,使得 AI 在处理私有数据时更加安全可靠,同时也为隐私敏感领域的 AI 应用提供了新的可能性。
ChatGPT 的出现可能使人们忽略了一些专注于生成图片、音频和视频的生成式人工智能模型。然而,这些模型目前已经能够生成逼真的深度伪造内容。例如,最近流行的 AI 生成的写真照片,以及模仿 Drake 新歌的 AI 生成版本,这些内容已经在社交媒体上广泛传播。由于人们天生倾向于相信所见所听,这些深度伪造内容可能构成潜在的局危险。虽然一些初创公司试图使用 Web2 技术来解决这个问题,但数字签名等 Web3 技术可能更有效地解决这个问题。
在 Web3 中,用户之间的交易由用户的私钥签名以证明其有效性。类似地,文本、图片、音频和视频内容也可以通过创作者的私钥进行数字签名,以证明其真实性。任何人都可以通过与创作者的公开地址进行签名验证,这个公开地址可以在创作者的网站或社交媒体账户上找到。Web3网络已经建立了所有必要的基础设施来满足这种内容验证的需求。一些投资者已经将他们的社交媒体配置文件,如 Twitter,或去中心化社交媒体平台,如 Lens Protocol 和Mirror,与加密的公开地址相关联,以增加内容验证的可信度。例如,美国头部投资机构 USV 的合伙人 Fred Wilson 讨论了将内容与公共加密密钥相关联如何在打击虚假信息方面起到作用。
尽管这个概念看起来很简单,但要改善身份验证过程的用户体验还需要很多工作。例如,内容的数字签名过程需要自动化,以便为创作者提供无缝、流畅的体验。另一个挑战是如何在不需要重新签名的情况下生成已签名数据的子集,例如音频或视频片段。目前,许多项目都在努力解决这些问题,并且 Web3 在解决这些问题方面具有独特的优势。通过数字签名等技术, Web3 有望在保护内容真实性和打击深度伪造内容等方面发挥关键作用,从而提高用户的信任和网络环境的可信度。
Web3 技术还可以在专有机器学习(ML)模型作为服务提供时,实现最大程度地减少对服务提供商的信任。用户可能希望验证他们所付费购买的服务,或获得关于ML模型公平执行的保证,即相同的模型用于所有用户。零知识证明(ZKP)可以用于提供这些保证。在这个架构中, ML 模型的创建者生成一个代表 ML 模型的 ZK 电路。然后,在需要的时候,使用该电路为用户的推理生成零知识证明。这些证明可以发送给用户进行验证,也可以发布到负责处理用户验证任务的公共链上。如果 ML 模型是私有的,独立的第三方可以验证所使用的 ZK 电路是否代表该模型。在模型的执行结果具有高风险的情况下,这种信任最小化的方法尤其有用。以下是一些具体的用例:
医疗诊断的机器学习应用
在这种情况下,患者将自己的医疗数据提交给 ML 模型进行潜在的诊断。患者需要确保目标机器学习模型没有滥用他们的数据。推理过程可以生成一个零知识证明,用于证明 ML 模型的正确执行。
贷款信用评估
ZKP可以确保银行和金融机构在评估信用价值时考虑了申请人提交的所有财务信息。此外,通过证明所有用户使用相同的模型,ZKP可以证明公平性。
保险理赔处理
当前的保险理赔处理是手动和主观的。然而,ML 模型可以更公平地评估保险单和索赔细节。与 ZKP 相结合,这些索赔处理 ML 模型可以被证明考虑了所有保单和索赔细节,并且同一模型用于处理同一保单下的所有索赔。
通过利用零知识证明等技术,Web3 有望为专有 ML 模型的信任问题提供创新的解决方案。这不仅有助于提高用户对模型执行的信任,还能够促进更加公平和透明的交易过程。
创建和训练 LLM(大型语言模型)是一个耗时且昂贵的过程,需要特定领域的专业知识、专用的计算基础设施以及数百万美元的计算成本。这些特征可能会导致强大的集中实体,例如 OpenAI ,它们可以通过控制对其模型的访问来对其用户行使重大权力。
考虑到这些集中化风险,关于 Web3 如何促进。创建不同方面的去中心化的重要讨论正在进行中。一些 Web3 倡导者提出了将去中心化计算作为与集中式参与者竞争的一种方法。这个观点认为,去中心化计算可以是一种更便宜的替代方案。然而,我们的观点是,这可能不是与集中式参与者竞争的最佳角度。去中心化计算的缺点在于,由于不同异构计算设备之间的通信开销, ML 训练可能会慢10到100倍。
一种方法是通过去中心化计算来分散模型创建的成本和资源。虽然有人认为去中心化计算可能成为替代集中式实体的更便宜方案,但通信开销问题可能会限制其效率。这意味着在涉及大规模计算任务时,去中心化计算可能导致训练速度减缓。因此,在寻求解决模型创建集中化问题时,需要仔细权衡去中心化计算的利弊。
另一种方法是采用 Proof of Private Work(PoPW)的方式来创建独特而具有竞争力的 ML 模型。这个方法的优势在于它可以通过将数据集和计算任务分散到网络的不同节点来实现去中心化。这些节点可以为模型训练做出贡献,同时维护各自的数据隐私。Together 和 Bittensor 等项目正在朝这个方向发展,试图通过 PoPW 网络来实现模型创建的去中心化。
人工智能代理的支付和执行轨道
人工智能代理的支付和执行轨道在最近的几周中引起了极大的关注。使用LLM(大型语言模型)来执行特定任务并实现目标的趋势不断上升,这一潮流起源于BabyAGI的概念,并迅速扩散至高级版本,包括AutoGPT等。这引发了一个重要的预测,即在未来,人工智能代理将在某些任务中表现出色并变得更加专业。如果出现了专门的市场,人工智能代理就有能力搜索、雇用和支付其他人工智能代理的费用,从而协同完成重要项目。
在这一进程中,Web3 网络为人工智能代理提供了理想的环境。特别是在支付方面,人工智能代理可以配置加密货币钱包,用于接收付款并向其他代理付款,实现任务分工和合作。除此之外,人工智能代理还可以无需许可地委托资源,将其插入加密网络。例如,如果一个人工智能代理需要存储数据,他们可以创建一个Filecoin钱包,支付去中心化存储网络IPFS上的存储费用。另外,人工智能代理还可以委托去中心化计算网络(如Akash)的计算资源,以执行特定任务,甚至扩展其执行范围。
防止AI侵犯隐私
然而,在这一发展过程中,隐私和数据保护问题变得尤为重要。鉴于训练高性能机器学习模型需要大量数据,因此可以安全地假设任何公共数据都会进入机器学习模型,这些模型可以使用这些数据来预测个人的行为。特别是在金融领域,建立机器学习模型可能导致用户财务隐私受到侵犯。为了解决这个问题,一些隐私保护技术如 zCash、Aztec支付,以及Penumbra和Aleo等私人DeFi协议可以用来确保用户的隐私得到保护。这些技术可以在保护用户数据的同时进行交易和数据分析,从而实现金融交易和机器学习模型开发的平衡。
我们相信 Web3 和 AI 在文化和技术上是相互兼容的。与 Web2 中对机器人的抵触情绪不同,Web3 凭借其无需许可的可编程性质,为人工智能的蓬勃发展创造了机会。
从更宏观的角度来看,如果将区块链视为一个网络,那么人工智能有望在这个网络的边缘发挥主导作用。这一观点适用于各种消费应用程序,从社交媒体到游戏。迄今为止,Web3 网络的边缘主要由人类组成。人类会发起并签署交易,或者通过预先设定的策略让机器人代表他们采取行动。
随着时间的推移,我们可以预见网络边缘会出现越来越多的人工智能助理。这些 AI 助理将通过智能合约与人类以及彼此互动。我们相信这些互动将带来全新的消费者和用户体验,可能会引发创新的应用场景。
Web3 的无需许可特性赋予了人工智能更大的自由度,可以更紧密地与区块链和分布式网络集成。这有望促进创新、扩展应用领域,并为用户创造更富有个性化和智能化的体验。同时,需要密切关注隐私、安全和伦理问题,以确保人工智能的发展不会给用户带来负面影响,而是真正实现技术与文化的和谐共存。
金色财经
企业专栏
阅读更多
元宇宙简史
金色荐读
深潮TechFlow
金色财经 善欧巴
曼昆区块链法律服务
人民法院报
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。