人工智能系统的演变:从 Web2 到 Web3

进阶3/10/2025, 6:25:23 AM
在本篇“Agentic AI”系列的第二篇文章第一部分,我们将聚焦 Web2 时代的 AI 生态,分析其发展趋势、代表性平台和关键技术。

在之前的文章中,我们回顾了应用设计的历史。而在本篇“Agentic AI”系列的第二篇文章第一部分,我们将聚焦 Web2 时代的 AI 生态,分析其发展趋势、代表性平台和关键技术。在第二部分中,我们将进一步探讨区块链和去信任化验证技术如何推动 AI 代理系统向真正的自主智能系统演进。

1. Web2 时代的 AI 代理生态

中心化 AI 代理的现状


图 1:E2B Web2 AI 代理生态示意图

当前的 AI 生态仍然由大型科技公司主导,它们控制着中心化的平台和服务。OpenAI、Anthropic、Google 和 Microsoft 等公司不仅提供先进的大型语言模型(LLMs),还负责维持关键的云计算基础设施和 API 服务,支撑着大多数 AI 代理的运行。

AI 代理基础设施

随着 AI 技术的进步,开发 AI 代理的方式也发生了巨大变化。开发者无需编写繁琐的代码,而是可以直接使用自然语言定义 AI 代理的行为和目标,使其更具灵活性和智能性。


图 2:AI 代理基础设施示意图

AI 代理的发展主要得益于以下几个关键领域的突破:

  • 高级大型语言模型(LLMs):

LLMs 彻底改变了 AI 代理对自然语言的理解和生成方式,取代了传统的基于规则的系统,具备更先进的理解能力。它们通过“链式思维”推理实现复杂的推理和规划能力。

目前,大多数 AI 应用都建立在中心化的 LLM 模型之上,例如 OpenAI 的 GPT-4、Anthropic 的 Claude,以及 Google 的 Gemini。

开源 AI 模型包括 DeepSeek、Meta 的 LLaMa、Google 的 PaLM 2 和 LaMDA、Mistral AI的 Mistral 7B、xAI 的 Grok 和 Grok-1、LM Studio 的 Vicuna-13B 以及阿布扎比技术创新研究院(TII)开发的 Falcon 模型。

  • 代理框架:

许多新兴框架和工具正在帮助企业更轻松地构建多代理 AI 应用。这些框架支持各种 LLM,并提供预构建的功能,如记忆管理、自定义工具和外部数据集成,从而大大减少开发难度,加速 AI 代理的创新和落地。

主要的代理框架包括 Phidata、OpenAI SwarmCrewAI、LangChain LangGraph,、LlamaIndex、、开源的 Microsoft Autogen, Vertex AILangFlow,它们使开发 AI 助手的代码需求降至最低。

  • 自主 AI 平台:

自主 AI 平台旨在协调多个 AI 代理,使其在分布式环境下自主解决复杂问题。这些系统能够动态适应和协作,为 AI 代理的扩展提供稳健的解决方案。它们的目标是使 AI 代理技术更易于企业应用,并能直接集成到现有系统中。

主要的自主 AI 平台包括 Microsoft Autogen、Langchain LangGraph、Microsoft Semantic Kernel 和 CrewAI。

  • 检索增强生成(RAG):

RAG 允许 LLM 在回答查询之前访问外部数据库或文档,从而提高准确性并减少幻觉现象。RAG 的发展使 AI 代理能够适应并从新信息源中学习,无需频繁重新训练模型。

主要的 RAG 工具包括 K2ViewHaystackLangChain,、LlamaIndex,、RAGatouille,以及开源的 EmbedChainInfiniFlow

  • 记忆系统:传统 AI 代理在处理长期任务时存在局限性,而记忆系统可提供短期记忆用于中间任务,或长期记忆用于存储和检索更长期的信息。
    长期记忆包括:
    • 情景记忆:记录特定的经验,以便在当前查询中学习和解决问题。
    • 语义记忆:存储关于 AI 代理环境的通用和高层信息。
    • 程序记忆:记录决策过程和解决数学问题的步骤。
  • 主要的记忆服务提供商包括 Letta、开源 MemGPTZepMem0
  • 零代码 AI 平台:

这类平台允许用户通过拖放工具、可视化界面或问答向导来构建 AI 模型。用户可以直接将 AI 代理部署到应用程序中,实现自动化流程。零代码平台降低了 AI 代理的开发门槛,使 AI 应用更易于访问,同时加快开发周期,促进创新。

主要的零代码平台包括 BuildFire AIGoogle Teachable Machine 和 Amazon SageMaker

此外,还有一些专门用于 AI 代理的零代码平台,例如 Obviously AI(用于商业预测)、Lobe AI(用于图像分类)和 Nanonets(用于文档处理)。


图 3:AI 业务模型示意图

业务模型

传统的 Web2 AI 公司主要采用分层订阅和咨询服务作为其商业模式。

新兴的 AI 代理商业模式包括:

  • 订阅 / 按使用量收费模式: 按代理运行次数或计算资源消耗计费,类似于 LLM 服务。
  • 市场模式: 代理平台从平台上的交易中抽取佣金,类似于应用商店模式。
  • 企业授权: 提供定制化的 AI 代理解决方案,并收取实施与支持费用。
  • API 访问: 代理平台提供 API,允许开发人员集成 AI 代理,并根据 API 调用次数或使用量收费。
  • 开源+高级功能: 开源项目提供基础功能免费使用,但对高级功能、托管服务或企业支持收费。
  • 工具集成: 代理平台可能向 API 提供商或工具服务商收取使用费用或抽成。

2.中心化AI的局限性

尽管当前的 Web2 AI 系统推动了技术和效率的提升,但它们仍然面临诸多挑战:

  • 中心化控制:AI 模型和训练数据集中掌握在少数大型科技公司手中,这带来了访问权限受限、模型训练受控以及垂直整合强制实施的风险。
  • 数据隐私和所有权:用户无法控制自己的数据如何被使用,也无法获得因其数据被用于 AI 训练而应得的补偿。此外,数据的集中存储构成了单点故障风险,可能成为数据泄露的目标。
  • 透明度问题:中心化 AI 模型的“黑箱”特性使用户无法理解其决策过程,也无法验证训练数据的来源。基于这些模型构建的应用程序无法解释可能存在的偏见,用户对其数据的使用方式几乎没有任何控制权。
  • 合规挑战:全球范围内关于 AI 使用和数据隐私的监管环境复杂多变,给合规带来了不确定性。基于中心化 AI 模型构建的 AI 代理和应用可能受到模型所有者所在国家的法规约束。
  • 对抗性攻击:AI 模型容易受到对抗性攻击,即通过修改输入数据来欺骗模型,使其生成错误的输出。因此,需要验证输入和输出的有效性,并加强 AI 代理的安全性和监控措施。
  • 输出可靠性:AI 模型的输出需要经过技术验证,并采用透明、可审计的流程来确保其可信度。随着 AI 代理规模的扩大,AI 生成结果的正确性变得尤为重要。
  • 深度伪造:由 AI 生成或修改的图像、语音和视频(即“深度伪造”)带来了严重挑战,它们可能被用于传播虚假信息、制造安全威胁,并削弱公众信任。

3.去中心化 AI 解决方案

Web2 AI 的主要限制——中心化、数据所有权和透明度问题——正在通过区块链和代币化机制得到解决。Web3 提供了以下解决方案:

  • 去中心化计算网络:AI 模型可以使用分布式计算网络进行训练和推理,而不是依赖于中心化的云服务提供商。
  • 模块化基础设施:小型团队可以利用去中心化计算网络和数据 DAO(去中心化自治组织)来训练新的特定 AI 模型。开发者可以使用模块化工具和可组合的基本组件来增强 AI 代理的能力。
  • 透明且可验证的系统:Web3 通过区块链提供了一种可验证的方式来追踪 AI 模型的开发和使用情况。模型的输入和输出可以通过零知识证明(ZKPs)和可信执行环境(TEEs)进行验证,并永久记录在区块链上。
  • 数据所有权与自主权:数据可以通过数据市场或数据 DAO 进行变现,这些 DAO 将数据视为集体资产,并可以将数据使用带来的利润重新分配给 DAO 贡献者。
  • 网络引导:代币激励机制可以帮助去中心化计算网络、数据 DAO 和 AI 代理市场的早期贡献者获得奖励,从而促进网络的发展。代币经济激励可以解决初期的协调难题,推动网络的采用和增长。

4. Web3 AI 代理生态

Web2 和 Web3 AI 代理的技术架构在核心组件上存在共性,例如模型和资源协调、工具和其他服务、以及用于上下文保留的记忆系统。然而,Web3 通过引入区块链技术,实现了以下去中心化特性:

  • 计算资源的去中心化
  • 通过代币激励促进数据共享和用户数据所有权
  • 通过智能合约实现无需信任的执行
  • 通过代币机制协调去中心化网络的启动


图 4:Web3_AI代理技术架构

数据层

数据层是 Web3 AI 代理技术架构的基础,涵盖数据的各个方面,包括数据来源、溯源追踪和真实性验证、标注系统、数据分析和研究工具,以及不同的数据存储解决方案。

1.数据来源:数据来源指的是 Web3 AI 生态系统中数据的不同来源。

  • 数据 DAO:数据 DAO 是由社区管理的数据组织,旨在促进数据共享和变现。例如VanaMasa AI
  • 数据市场:由 Ocean ProtocolSahara AI 等平台提供的去中心化数据交易市场,使数据交换更加自由和透明。
  • 私人数据:个人社交、金融和医疗数据可以在链上匿名化,使用户能够自主变现。例如,Kaito AI 通过 X(推特) 索引社交数据,并通过 API 生成情绪数据。
  • 公共数据:Web2 爬取服务(如 Grass)收集公开数据,并将其预处理成结构化数据,以用于 AI 训练。
  • 合成数据:由于可用的公共数据有限,基于真实数据生成的合成数据成为 AI 训练的替代方案。例如,Modeʻs Synth Subset 提供专门为 AI 训练和测试而创建的合成价格数据集。
  • 预言机(Oracles):预言机聚合链下数据,并通过智能合约连接区块链。AI 相关的预言机包括 Ora ProtocolChainlink和 Masa AI。

2.数据溯源:数据溯源对于确保数据完整性、减少偏见、提高可追溯性至关重要。数据溯源技术能够记录数据的起源,并追踪数据的变更历史,以确保 AI 训练数据的可靠性。Web3 解决方案包括:

基于区块链的元数据: 通过区块链记录数据的来源及其修改历史(代表项目 Ocean Protocol 和 Filecoin’s Project Origin)。

去中心化知识图谱: 追踪数据流向并提供可验证的数据来源(如 OriginTrail)。

零知识证明: 生成数据溯源和审计的加密证明,以提高数据的可信性(如 Fact Fortress 和 Reclaim Protocol)。

3.数据标注: 传统上需要人工对数据进行分类和标记,以便用于监督学习模型的训练。Web3 通过代币激励机制,鼓励众包工作者参与数据预处理。

在 Web2 领域,Scale AI 的年收入达 10 亿美元,客户包括 OpenAI、Anthropic 和 Cohere。而在 Web3 领域,Human Protocol 和 Ocean Protocol 采用众包模式进行数据标注,并通过代币奖励贡献者,Alaya AIFetch.ai 则采用 AI 代理执行数据标注任务。

4.数据智能工具:数据智能工具是用于分析和提取数据洞察的软件解决方案,它们能够提高数据质量,确保合规性和安全性,并通过优化数据质量来提升 AI 模型的表现。区块链分析公司包括 ArkhamNansenDune,而 Messari提供链下研究服务,Kaito 通过 API 提供社交媒体情绪分析,使 AI 模型能够利用更丰富的数据源进行训练。

5.数据存储:采用代币激励模式,实现去中心化和分布式存储,使数据能够在独立的节点网络中存储和共享。数据通常经过加密,并分布在多个节点上,以确保冗余存储和隐私安全。

Filecoin 是最早的去中心化存储项目之一,用户可以提供闲置硬盘空间存储加密数据,并获得代币奖励。 IPFS (星际文件系统)通过点对点网络存储和共享数据,利用唯一的加密哈希确保数据的完整性。 Arweave 提供永久数据存储方案,并通过区块奖励补贴存储成本,而 Storj 提供兼容 S3 API 的存储解决方案,使现有企业应用能够轻松从云存储迁移至去中心化存储系统。

计算层

计算层提供运行 AI 操作所需的处理基础设施。计算资源可分为不同类别:用于模型开发的训练基础设施、用于模型执行和 AI 代理运行的推理系统,以及本地去中心化计算的边缘计算。去中心化计算资源减少了对中心化云网络的依赖,提高了安全性,降低了单点故障的风险,同时允许较小的 AI 公司利用多余的计算资源。

1.训练:AI 模型训练通常计算密集且成本高昂,而去中心化的训练计算资源能够使 AI 开发更加民主化,同时提升隐私和安全性,因为敏感数据可以在本地处理,而无需受制于中心化平台。

2.推理:推理计算指的是模型生成新输出或 AI 应用及 AI 代理运行所需的计算资源。实时处理大量数据的应用,或需要多次操作的 AI 代理,通常需要更强大的推理计算能力。

  • HyperbolicDfinityHyperspace 专门提供推理计算服务。
  • Inference Labs 的 Omron 是 Bittensor 上的推理与计算验证市场。
  • Bittensor、Golem Network、Akash Network、Phala 和 Render Network 提供训练与推理计算资源。

3.边缘计算:边缘计算指的是在智能手机、物联网(IoT)设备或本地服务器等远程设备上进行本地数据处理。由于数据和模型运行在同一设备上,边缘计算可实现实时数据处理并减少延迟。

验证/隐私层

验证与隐私层负责确保系统的完整性和数据安全。共识机制、零知识证明(ZKPs)和可信执行环境(TEEs) 用于验证模型训练、推理计算和输出结果。完全同态加密(FHE)和 TEEs 用于保护数据隐私。

1.可验证计算:可验证计算包括模型训练和推理计算,确保 AI 计算过程可被外部审计和验证。

  • Phala 和 Atoma Network 结合 TEEs 提供可验证计算。
  • Inferium 采用 ZKPs(零知识证明) 和 TEEs 结合的方式,实现可验证推理计算。

2.输出证明:输出证明用于验证 AI 模型的输出结果是否真实,确保结果未经篡改,同时不泄露模型参数。输出证明还提供数据溯源,对于 AI 代理的可信决策至关重要。

3.数据与模型隐私:完全同态加密(FHE) 和其他密码学技术使 AI 模型能够在加密数据上进行计算,而不会暴露敏感信息。在处理个人数据或隐私数据时,数据隐私保护至关重要,可用于保护匿名性。可验证计算:可验证计算包括模型训练和推理计算,确保 AI 计算过程可被外部审计和验证。

协调层

协调层促进 Web3 AI 生态系统中不同组件之间的交互,包括模型市场用于 AI 资源分发、训练和微调基础设施 以及 代理网络以实现 AI 代理之间的沟通和协作。

  • 模型网络:模型网络用于共享 AI 模型开发的资源。
    • 大型语言模型(LLMs):训练 LLM 需要大量计算和数据资源,LLM 网络允许开发者部署专门化模型。

Bittensor、 Sentient 和 Akash Network 为用户提供计算资源和市场,以支持 LLM 的开发。

  • 结构化数据:结构化数据网络依赖于定制和经过筛选的数据集。
    Pond AI 采用图模型,创建能够利用区块链数据的 AI 应用和代理。
  • 市场:市场用于变现 AI 模型、代理和数据集。
    Ocean Protocol 提供一个市场,允许用户交易数据、数据预处理服务、AI 模型和模型输出。

Fetch AI 作为 AI 代理市场,支持 AI 代理的创建和交易。

  1. 训练与微调:训练网络专注于分发和管理 AI 训练数据集,而微调网络专注于通过 RAG和 API 进行模型优化。
    Bittensor、Akash Network 和 Golem Network 提供训练和微调网络。
  2. 代理网络:代理网络提供两大核心功能:1)工具: 连接不同协议、提供标准化用户界面,并与外部服务进行通信。2)代理启动平台: 便捷的 AI 代理部署与管理工具。
    Theoriq 利用代理群体 提供 DeFi 交易解决方案。

Virtuals 是 Base 上的领先 AI 代理启动平台。

Eliza OS 是首个开源 LLM 模型网络。

Alpaca NetworkOlas Network 是社区驱动的 AI 代理平台。

服务层

服务层为 AI 应用和代理提供必要的中间件和工具,确保其高效运行。该层涵盖开发工具、外部数据 API、记忆系统、检索增强生成(RAG) 以优化知识访问,以及测试基础设施 以确保 AI 代理的可靠性。

  • 工具:AI 代理所需的各类工具,提供不同功能支持:
    • 支付:集成去中心化支付系统,使 AI 代理能够自主执行金融交易,实现 Web3 生态中的自动化经济交互。

Coinbase 的 AgentKit 允许 AI 代理执行支付和代币转账。LangChain 和 Payman 提供支付请求和发送选项。

  • 代理启动平台:帮助 AI 代理的部署和扩展,提供代币启动、模型选择、API 访问和工具支持。

Virtuals Protocol 是领先的 AI 代理启动平台,支持创建、部署和变现 AI 代理。Top HatGriffain 是 Solana 生态中的 AI 代理启动平台。

  • 授权:通过权限管理机制,确保 AI 代理在设定范围内安全运行。

Biconomy 提供 Session Keys ,允许 AI 代理仅与白名单智能合约 交互。

  • 安全性:保护 AI 代理免受攻击,确保数据完整性和隐私。
    GoPlus Security 提供插件,允许 ElizaOS AI 代理 使用 链上安全功能,防范诈骗、钓鱼和可疑交易。
  • 应用程序编程接口 (API):API 使 AI 代理能够无缝集成外部数据和服务,增强其功能和决策能力。数据访问 API 为 AI 代理提供实时数据,帮助其做出更准确的决策,而服务 API 使 AI 代理能够与外部应用程序交互,扩展其功能范围。
    Datai Network 通过结构化数据 API 为 AI 代理提供区块链数据。

SubQuery Network 提供去中心化数据索引器和RPC 端点,支持 AI 代理和应用的运行。

  • 检索增强生成(RAG):RAG 结合大型语言模型(LLMs)与外部数据检索,提高 AI 代理的知识获取能力。
    • 动态信息检索:AI 代理可以从外部数据库或互联网检索最新数据,以确保回答的准确性和实时性。
    • 知识整合:代理可以将外部数据整合进生成过程,生成更具上下文相关性的回答。
  • Atoma Network 提供安全数据管理和公共数据 API,用于定制化 RAG 解决方案。

ElizaOSKIP Protocol 提供 AI 代理插件,连接外部数据源,如 X(推特) 和Farcaster。

  • 记忆系统:AI 代理需要记忆系统来保留上下文,并从交互中学习。

短期记忆:代理可以保留交互历史,以提供更连贯、上下文相关的回答。

长期记忆:代理可以存储和分析过往交互,提高 AI 代理的个性化能力和长期适应性。

ElizaOS 在其 AI 代理网络中提供记忆管理功能。

Mem0AIUnibase AI 正在构建 AI 应用和代理的记忆层,增强 AI 代理的长期学习能力。

  • 测试基础设施:AI 代理需要稳定的测试环境来确保其功能的可靠性和稳健性。AI 代理可在受控的模拟环境中运行,以评估其在不同场景下的表现。

Alchemy 的 AI 助手 ChatWeb3 能够执行复杂查询和测试,评估 AI 代理的功能实现是否正确。

应用层

应用层是 AI 技术栈的最上层,代表着最终用户可以直接使用的 AI 解决方案。这些应用涵盖钱包管理、安全性、生产力提升、游戏、预测市场、治理系统和 DeFAI(去中心化金融 AI)工具等多个场景。

  • 钱包:AI 代理增强 Web3 钱包的功能,解析用户意图并自动化复杂交易,从而提升用户体验。
    Armor WalletFoxWallet 利用 AI 代理在 DeFi 平台和区块链上执行用户意图,用户可以通过类似聊天的界面输入交易需求。Coinbase 开发者平台 Coinbase 开发者平台提供 AI 代理管理的 MPC(多方计算)钱包,使其能够自主转移代币。
  • 安全:AI 代理可以监测区块链活动,识别欺诈行为和可疑智能合约交易。
    ChainAware.ai 的欺诈检测代理提供实时钱包安全监测和合规检查,支持多条区块链。代理层的 钱包检查器 负责扫描钱包漏洞并提供安全优化建议。
  • 生产力:AI 代理能够自动化任务、管理日程安排,并提供智能化推荐,提高用户效率。

World3 提供无代码 AI 代理开发平台,用户可以设计用于社交媒体管理、Web3 代币发布和研究辅助的模块化 AI 代理。

  • 游戏:AI 代理可控制 NPC(非玩家角色),并根据玩家的动作进行实时调整,提升游戏体验。此外,它们还能生成游戏内容,并帮助新玩家熟悉游戏。
    AI竞技场 结合人类玩家的操作数据与模仿学习训练 AI 游戏代理。Nim Network 是一个 AI 游戏公链,提供 代理身份(Agent IDs) 和 零知识证明(ZKP),用于跨链验证 AI 代理。Game3s.GG 设计能够自主探索、指导玩家并与人类玩家并肩作战的 AI 代理。
  • 预测市场:AI 代理分析数据,提供洞察,帮助用户在预测平台上做出更明智的决策。
    GOAT 预测器 是 Ton Network 上的AI代理,为用户提供数据驱动的市场预测。 SynStation是 Soneium 生态中的社区驱动预测市场,利用 AI 代理辅助用户决策。
  • 治理:AI 代理在去中心化自治组织(DAO)治理中发挥重要作用,自动评估提案、进行社区意愿调查、确保防女巫攻击(Sybil-Free Voting),并执行治理政策。
    SyncAI Network 运行 AI 代理,作为Cardano 生态的去中心化治理代表。Olas 提供治理AI代理,负责起草提案、投票并管理 DAO 财库。ElizaOS 的 AI 代理能够分析 DAO 论坛和 Discord 数据,提供治理决策建议。
  • DeFAI 代理:AI 代理可用于执行代币交换、识别收益策略、执行交易策略,并管理跨链资产再平衡。此外,风险管理代理 可以监控链上活动,检测可疑行为,并在必要时撤回流动性。
    Theoriq 的 AI 代理协议 通过AI 代理群体管理 DeFi 交易、优化流动性池并自动化收益策略。Noya 是一个 DeFi 平台,利用 AI 代理进行风险监控和投资组合管理。

总的来说,这些 AI 应用共同构建了一个安全、透明、去中心化的 AI 生态,专为 Web3 需求设计。

结论

从 Web2 到 Web3 AI 系统的演变标志着人工智能开发与部署方式的根本性变革。尽管 Web2 时代的中心化 AI 基础设施 推动了 AI 领域的巨大创新,但它也面临数据隐私、透明度和中心化控制 等重大挑战。Web3 AI 技术栈展示了去中心化系统 如何通过数据 DAO、去中心化计算网络和无需信任的验证机制 解决这些问题。此外,代币激励机制 创造了新的协调机制,有助于推动和维持 这些去中心化网络的长期发展。

展望未来,AI 代理的崛起代表着这一演变的下一个前沿。在接下来的文章中,我们将探讨 AI 代理——从简单的任务型机器人到复杂的自主系统——如何变得越来越智能和强大。这些 AI 代理与 Web3 基础设施的结合,再加上对技术架构、经济激励和治理结构 的深入思考,有可能创造出比 Web2 时代更加公平、透明和高效 的系统。对于 Web3 和 AI 交叉领域的从业者来说,理解 AI 代理的工作原理、不同的复杂性层级,以及AI 代理与真正自主 AI(Agentic AI) 之间的区别,将是至关重要的。

声明:

  1. 本文转载自 [Flashbots],所有版权归原作者 [tesa] 所有。如果对本次转载有任何异议,请联系 Gate Learn 团队,他们将及时处理。
  2. 免责声明:本文所表达的观点和意见仅代表作者个人观点,不构成任何投资建议。
  3. Gate Learn 团队负责本文章的翻译,未经授权,禁止复制、传播或剽窃翻译内容。

人工智能系统的演变:从 Web2 到 Web3

进阶3/10/2025, 6:25:23 AM
在本篇“Agentic AI”系列的第二篇文章第一部分,我们将聚焦 Web2 时代的 AI 生态,分析其发展趋势、代表性平台和关键技术。

在之前的文章中,我们回顾了应用设计的历史。而在本篇“Agentic AI”系列的第二篇文章第一部分,我们将聚焦 Web2 时代的 AI 生态,分析其发展趋势、代表性平台和关键技术。在第二部分中,我们将进一步探讨区块链和去信任化验证技术如何推动 AI 代理系统向真正的自主智能系统演进。

1. Web2 时代的 AI 代理生态

中心化 AI 代理的现状


图 1:E2B Web2 AI 代理生态示意图

当前的 AI 生态仍然由大型科技公司主导,它们控制着中心化的平台和服务。OpenAI、Anthropic、Google 和 Microsoft 等公司不仅提供先进的大型语言模型(LLMs),还负责维持关键的云计算基础设施和 API 服务,支撑着大多数 AI 代理的运行。

AI 代理基础设施

随着 AI 技术的进步,开发 AI 代理的方式也发生了巨大变化。开发者无需编写繁琐的代码,而是可以直接使用自然语言定义 AI 代理的行为和目标,使其更具灵活性和智能性。


图 2:AI 代理基础设施示意图

AI 代理的发展主要得益于以下几个关键领域的突破:

  • 高级大型语言模型(LLMs):

LLMs 彻底改变了 AI 代理对自然语言的理解和生成方式,取代了传统的基于规则的系统,具备更先进的理解能力。它们通过“链式思维”推理实现复杂的推理和规划能力。

目前,大多数 AI 应用都建立在中心化的 LLM 模型之上,例如 OpenAI 的 GPT-4、Anthropic 的 Claude,以及 Google 的 Gemini。

开源 AI 模型包括 DeepSeek、Meta 的 LLaMa、Google 的 PaLM 2 和 LaMDA、Mistral AI的 Mistral 7B、xAI 的 Grok 和 Grok-1、LM Studio 的 Vicuna-13B 以及阿布扎比技术创新研究院(TII)开发的 Falcon 模型。

  • 代理框架:

许多新兴框架和工具正在帮助企业更轻松地构建多代理 AI 应用。这些框架支持各种 LLM,并提供预构建的功能,如记忆管理、自定义工具和外部数据集成,从而大大减少开发难度,加速 AI 代理的创新和落地。

主要的代理框架包括 Phidata、OpenAI SwarmCrewAI、LangChain LangGraph,、LlamaIndex、、开源的 Microsoft Autogen, Vertex AILangFlow,它们使开发 AI 助手的代码需求降至最低。

  • 自主 AI 平台:

自主 AI 平台旨在协调多个 AI 代理,使其在分布式环境下自主解决复杂问题。这些系统能够动态适应和协作,为 AI 代理的扩展提供稳健的解决方案。它们的目标是使 AI 代理技术更易于企业应用,并能直接集成到现有系统中。

主要的自主 AI 平台包括 Microsoft Autogen、Langchain LangGraph、Microsoft Semantic Kernel 和 CrewAI。

  • 检索增强生成(RAG):

RAG 允许 LLM 在回答查询之前访问外部数据库或文档,从而提高准确性并减少幻觉现象。RAG 的发展使 AI 代理能够适应并从新信息源中学习,无需频繁重新训练模型。

主要的 RAG 工具包括 K2ViewHaystackLangChain,、LlamaIndex,、RAGatouille,以及开源的 EmbedChainInfiniFlow

  • 记忆系统:传统 AI 代理在处理长期任务时存在局限性,而记忆系统可提供短期记忆用于中间任务,或长期记忆用于存储和检索更长期的信息。
    长期记忆包括:
    • 情景记忆:记录特定的经验,以便在当前查询中学习和解决问题。
    • 语义记忆:存储关于 AI 代理环境的通用和高层信息。
    • 程序记忆:记录决策过程和解决数学问题的步骤。
  • 主要的记忆服务提供商包括 Letta、开源 MemGPTZepMem0
  • 零代码 AI 平台:

这类平台允许用户通过拖放工具、可视化界面或问答向导来构建 AI 模型。用户可以直接将 AI 代理部署到应用程序中,实现自动化流程。零代码平台降低了 AI 代理的开发门槛,使 AI 应用更易于访问,同时加快开发周期,促进创新。

主要的零代码平台包括 BuildFire AIGoogle Teachable Machine 和 Amazon SageMaker

此外,还有一些专门用于 AI 代理的零代码平台,例如 Obviously AI(用于商业预测)、Lobe AI(用于图像分类)和 Nanonets(用于文档处理)。


图 3:AI 业务模型示意图

业务模型

传统的 Web2 AI 公司主要采用分层订阅和咨询服务作为其商业模式。

新兴的 AI 代理商业模式包括:

  • 订阅 / 按使用量收费模式: 按代理运行次数或计算资源消耗计费,类似于 LLM 服务。
  • 市场模式: 代理平台从平台上的交易中抽取佣金,类似于应用商店模式。
  • 企业授权: 提供定制化的 AI 代理解决方案,并收取实施与支持费用。
  • API 访问: 代理平台提供 API,允许开发人员集成 AI 代理,并根据 API 调用次数或使用量收费。
  • 开源+高级功能: 开源项目提供基础功能免费使用,但对高级功能、托管服务或企业支持收费。
  • 工具集成: 代理平台可能向 API 提供商或工具服务商收取使用费用或抽成。

2.中心化AI的局限性

尽管当前的 Web2 AI 系统推动了技术和效率的提升,但它们仍然面临诸多挑战:

  • 中心化控制:AI 模型和训练数据集中掌握在少数大型科技公司手中,这带来了访问权限受限、模型训练受控以及垂直整合强制实施的风险。
  • 数据隐私和所有权:用户无法控制自己的数据如何被使用,也无法获得因其数据被用于 AI 训练而应得的补偿。此外,数据的集中存储构成了单点故障风险,可能成为数据泄露的目标。
  • 透明度问题:中心化 AI 模型的“黑箱”特性使用户无法理解其决策过程,也无法验证训练数据的来源。基于这些模型构建的应用程序无法解释可能存在的偏见,用户对其数据的使用方式几乎没有任何控制权。
  • 合规挑战:全球范围内关于 AI 使用和数据隐私的监管环境复杂多变,给合规带来了不确定性。基于中心化 AI 模型构建的 AI 代理和应用可能受到模型所有者所在国家的法规约束。
  • 对抗性攻击:AI 模型容易受到对抗性攻击,即通过修改输入数据来欺骗模型,使其生成错误的输出。因此,需要验证输入和输出的有效性,并加强 AI 代理的安全性和监控措施。
  • 输出可靠性:AI 模型的输出需要经过技术验证,并采用透明、可审计的流程来确保其可信度。随着 AI 代理规模的扩大,AI 生成结果的正确性变得尤为重要。
  • 深度伪造:由 AI 生成或修改的图像、语音和视频(即“深度伪造”)带来了严重挑战,它们可能被用于传播虚假信息、制造安全威胁,并削弱公众信任。

3.去中心化 AI 解决方案

Web2 AI 的主要限制——中心化、数据所有权和透明度问题——正在通过区块链和代币化机制得到解决。Web3 提供了以下解决方案:

  • 去中心化计算网络:AI 模型可以使用分布式计算网络进行训练和推理,而不是依赖于中心化的云服务提供商。
  • 模块化基础设施:小型团队可以利用去中心化计算网络和数据 DAO(去中心化自治组织)来训练新的特定 AI 模型。开发者可以使用模块化工具和可组合的基本组件来增强 AI 代理的能力。
  • 透明且可验证的系统:Web3 通过区块链提供了一种可验证的方式来追踪 AI 模型的开发和使用情况。模型的输入和输出可以通过零知识证明(ZKPs)和可信执行环境(TEEs)进行验证,并永久记录在区块链上。
  • 数据所有权与自主权:数据可以通过数据市场或数据 DAO 进行变现,这些 DAO 将数据视为集体资产,并可以将数据使用带来的利润重新分配给 DAO 贡献者。
  • 网络引导:代币激励机制可以帮助去中心化计算网络、数据 DAO 和 AI 代理市场的早期贡献者获得奖励,从而促进网络的发展。代币经济激励可以解决初期的协调难题,推动网络的采用和增长。

4. Web3 AI 代理生态

Web2 和 Web3 AI 代理的技术架构在核心组件上存在共性,例如模型和资源协调、工具和其他服务、以及用于上下文保留的记忆系统。然而,Web3 通过引入区块链技术,实现了以下去中心化特性:

  • 计算资源的去中心化
  • 通过代币激励促进数据共享和用户数据所有权
  • 通过智能合约实现无需信任的执行
  • 通过代币机制协调去中心化网络的启动


图 4:Web3_AI代理技术架构

数据层

数据层是 Web3 AI 代理技术架构的基础,涵盖数据的各个方面,包括数据来源、溯源追踪和真实性验证、标注系统、数据分析和研究工具,以及不同的数据存储解决方案。

1.数据来源:数据来源指的是 Web3 AI 生态系统中数据的不同来源。

  • 数据 DAO:数据 DAO 是由社区管理的数据组织,旨在促进数据共享和变现。例如VanaMasa AI
  • 数据市场:由 Ocean ProtocolSahara AI 等平台提供的去中心化数据交易市场,使数据交换更加自由和透明。
  • 私人数据:个人社交、金融和医疗数据可以在链上匿名化,使用户能够自主变现。例如,Kaito AI 通过 X(推特) 索引社交数据,并通过 API 生成情绪数据。
  • 公共数据:Web2 爬取服务(如 Grass)收集公开数据,并将其预处理成结构化数据,以用于 AI 训练。
  • 合成数据:由于可用的公共数据有限,基于真实数据生成的合成数据成为 AI 训练的替代方案。例如,Modeʻs Synth Subset 提供专门为 AI 训练和测试而创建的合成价格数据集。
  • 预言机(Oracles):预言机聚合链下数据,并通过智能合约连接区块链。AI 相关的预言机包括 Ora ProtocolChainlink和 Masa AI。

2.数据溯源:数据溯源对于确保数据完整性、减少偏见、提高可追溯性至关重要。数据溯源技术能够记录数据的起源,并追踪数据的变更历史,以确保 AI 训练数据的可靠性。Web3 解决方案包括:

基于区块链的元数据: 通过区块链记录数据的来源及其修改历史(代表项目 Ocean Protocol 和 Filecoin’s Project Origin)。

去中心化知识图谱: 追踪数据流向并提供可验证的数据来源(如 OriginTrail)。

零知识证明: 生成数据溯源和审计的加密证明,以提高数据的可信性(如 Fact Fortress 和 Reclaim Protocol)。

3.数据标注: 传统上需要人工对数据进行分类和标记,以便用于监督学习模型的训练。Web3 通过代币激励机制,鼓励众包工作者参与数据预处理。

在 Web2 领域,Scale AI 的年收入达 10 亿美元,客户包括 OpenAI、Anthropic 和 Cohere。而在 Web3 领域,Human Protocol 和 Ocean Protocol 采用众包模式进行数据标注,并通过代币奖励贡献者,Alaya AIFetch.ai 则采用 AI 代理执行数据标注任务。

4.数据智能工具:数据智能工具是用于分析和提取数据洞察的软件解决方案,它们能够提高数据质量,确保合规性和安全性,并通过优化数据质量来提升 AI 模型的表现。区块链分析公司包括 ArkhamNansenDune,而 Messari提供链下研究服务,Kaito 通过 API 提供社交媒体情绪分析,使 AI 模型能够利用更丰富的数据源进行训练。

5.数据存储:采用代币激励模式,实现去中心化和分布式存储,使数据能够在独立的节点网络中存储和共享。数据通常经过加密,并分布在多个节点上,以确保冗余存储和隐私安全。

Filecoin 是最早的去中心化存储项目之一,用户可以提供闲置硬盘空间存储加密数据,并获得代币奖励。 IPFS (星际文件系统)通过点对点网络存储和共享数据,利用唯一的加密哈希确保数据的完整性。 Arweave 提供永久数据存储方案,并通过区块奖励补贴存储成本,而 Storj 提供兼容 S3 API 的存储解决方案,使现有企业应用能够轻松从云存储迁移至去中心化存储系统。

计算层

计算层提供运行 AI 操作所需的处理基础设施。计算资源可分为不同类别:用于模型开发的训练基础设施、用于模型执行和 AI 代理运行的推理系统,以及本地去中心化计算的边缘计算。去中心化计算资源减少了对中心化云网络的依赖,提高了安全性,降低了单点故障的风险,同时允许较小的 AI 公司利用多余的计算资源。

1.训练:AI 模型训练通常计算密集且成本高昂,而去中心化的训练计算资源能够使 AI 开发更加民主化,同时提升隐私和安全性,因为敏感数据可以在本地处理,而无需受制于中心化平台。

2.推理:推理计算指的是模型生成新输出或 AI 应用及 AI 代理运行所需的计算资源。实时处理大量数据的应用,或需要多次操作的 AI 代理,通常需要更强大的推理计算能力。

  • HyperbolicDfinityHyperspace 专门提供推理计算服务。
  • Inference Labs 的 Omron 是 Bittensor 上的推理与计算验证市场。
  • Bittensor、Golem Network、Akash Network、Phala 和 Render Network 提供训练与推理计算资源。

3.边缘计算:边缘计算指的是在智能手机、物联网(IoT)设备或本地服务器等远程设备上进行本地数据处理。由于数据和模型运行在同一设备上,边缘计算可实现实时数据处理并减少延迟。

验证/隐私层

验证与隐私层负责确保系统的完整性和数据安全。共识机制、零知识证明(ZKPs)和可信执行环境(TEEs) 用于验证模型训练、推理计算和输出结果。完全同态加密(FHE)和 TEEs 用于保护数据隐私。

1.可验证计算:可验证计算包括模型训练和推理计算,确保 AI 计算过程可被外部审计和验证。

  • Phala 和 Atoma Network 结合 TEEs 提供可验证计算。
  • Inferium 采用 ZKPs(零知识证明) 和 TEEs 结合的方式,实现可验证推理计算。

2.输出证明:输出证明用于验证 AI 模型的输出结果是否真实,确保结果未经篡改,同时不泄露模型参数。输出证明还提供数据溯源,对于 AI 代理的可信决策至关重要。

3.数据与模型隐私:完全同态加密(FHE) 和其他密码学技术使 AI 模型能够在加密数据上进行计算,而不会暴露敏感信息。在处理个人数据或隐私数据时,数据隐私保护至关重要,可用于保护匿名性。可验证计算:可验证计算包括模型训练和推理计算,确保 AI 计算过程可被外部审计和验证。

协调层

协调层促进 Web3 AI 生态系统中不同组件之间的交互,包括模型市场用于 AI 资源分发、训练和微调基础设施 以及 代理网络以实现 AI 代理之间的沟通和协作。

  • 模型网络:模型网络用于共享 AI 模型开发的资源。
    • 大型语言模型(LLMs):训练 LLM 需要大量计算和数据资源,LLM 网络允许开发者部署专门化模型。

Bittensor、 Sentient 和 Akash Network 为用户提供计算资源和市场,以支持 LLM 的开发。

  • 结构化数据:结构化数据网络依赖于定制和经过筛选的数据集。
    Pond AI 采用图模型,创建能够利用区块链数据的 AI 应用和代理。
  • 市场:市场用于变现 AI 模型、代理和数据集。
    Ocean Protocol 提供一个市场,允许用户交易数据、数据预处理服务、AI 模型和模型输出。

Fetch AI 作为 AI 代理市场,支持 AI 代理的创建和交易。

  1. 训练与微调:训练网络专注于分发和管理 AI 训练数据集,而微调网络专注于通过 RAG和 API 进行模型优化。
    Bittensor、Akash Network 和 Golem Network 提供训练和微调网络。
  2. 代理网络:代理网络提供两大核心功能:1)工具: 连接不同协议、提供标准化用户界面,并与外部服务进行通信。2)代理启动平台: 便捷的 AI 代理部署与管理工具。
    Theoriq 利用代理群体 提供 DeFi 交易解决方案。

Virtuals 是 Base 上的领先 AI 代理启动平台。

Eliza OS 是首个开源 LLM 模型网络。

Alpaca NetworkOlas Network 是社区驱动的 AI 代理平台。

服务层

服务层为 AI 应用和代理提供必要的中间件和工具,确保其高效运行。该层涵盖开发工具、外部数据 API、记忆系统、检索增强生成(RAG) 以优化知识访问,以及测试基础设施 以确保 AI 代理的可靠性。

  • 工具:AI 代理所需的各类工具,提供不同功能支持:
    • 支付:集成去中心化支付系统,使 AI 代理能够自主执行金融交易,实现 Web3 生态中的自动化经济交互。

Coinbase 的 AgentKit 允许 AI 代理执行支付和代币转账。LangChain 和 Payman 提供支付请求和发送选项。

  • 代理启动平台:帮助 AI 代理的部署和扩展,提供代币启动、模型选择、API 访问和工具支持。

Virtuals Protocol 是领先的 AI 代理启动平台,支持创建、部署和变现 AI 代理。Top HatGriffain 是 Solana 生态中的 AI 代理启动平台。

  • 授权:通过权限管理机制,确保 AI 代理在设定范围内安全运行。

Biconomy 提供 Session Keys ,允许 AI 代理仅与白名单智能合约 交互。

  • 安全性:保护 AI 代理免受攻击,确保数据完整性和隐私。
    GoPlus Security 提供插件,允许 ElizaOS AI 代理 使用 链上安全功能,防范诈骗、钓鱼和可疑交易。
  • 应用程序编程接口 (API):API 使 AI 代理能够无缝集成外部数据和服务,增强其功能和决策能力。数据访问 API 为 AI 代理提供实时数据,帮助其做出更准确的决策,而服务 API 使 AI 代理能够与外部应用程序交互,扩展其功能范围。
    Datai Network 通过结构化数据 API 为 AI 代理提供区块链数据。

SubQuery Network 提供去中心化数据索引器和RPC 端点,支持 AI 代理和应用的运行。

  • 检索增强生成(RAG):RAG 结合大型语言模型(LLMs)与外部数据检索,提高 AI 代理的知识获取能力。
    • 动态信息检索:AI 代理可以从外部数据库或互联网检索最新数据,以确保回答的准确性和实时性。
    • 知识整合:代理可以将外部数据整合进生成过程,生成更具上下文相关性的回答。
  • Atoma Network 提供安全数据管理和公共数据 API,用于定制化 RAG 解决方案。

ElizaOSKIP Protocol 提供 AI 代理插件,连接外部数据源,如 X(推特) 和Farcaster。

  • 记忆系统:AI 代理需要记忆系统来保留上下文,并从交互中学习。

短期记忆:代理可以保留交互历史,以提供更连贯、上下文相关的回答。

长期记忆:代理可以存储和分析过往交互,提高 AI 代理的个性化能力和长期适应性。

ElizaOS 在其 AI 代理网络中提供记忆管理功能。

Mem0AIUnibase AI 正在构建 AI 应用和代理的记忆层,增强 AI 代理的长期学习能力。

  • 测试基础设施:AI 代理需要稳定的测试环境来确保其功能的可靠性和稳健性。AI 代理可在受控的模拟环境中运行,以评估其在不同场景下的表现。

Alchemy 的 AI 助手 ChatWeb3 能够执行复杂查询和测试,评估 AI 代理的功能实现是否正确。

应用层

应用层是 AI 技术栈的最上层,代表着最终用户可以直接使用的 AI 解决方案。这些应用涵盖钱包管理、安全性、生产力提升、游戏、预测市场、治理系统和 DeFAI(去中心化金融 AI)工具等多个场景。

  • 钱包:AI 代理增强 Web3 钱包的功能,解析用户意图并自动化复杂交易,从而提升用户体验。
    Armor WalletFoxWallet 利用 AI 代理在 DeFi 平台和区块链上执行用户意图,用户可以通过类似聊天的界面输入交易需求。Coinbase 开发者平台 Coinbase 开发者平台提供 AI 代理管理的 MPC(多方计算)钱包,使其能够自主转移代币。
  • 安全:AI 代理可以监测区块链活动,识别欺诈行为和可疑智能合约交易。
    ChainAware.ai 的欺诈检测代理提供实时钱包安全监测和合规检查,支持多条区块链。代理层的 钱包检查器 负责扫描钱包漏洞并提供安全优化建议。
  • 生产力:AI 代理能够自动化任务、管理日程安排,并提供智能化推荐,提高用户效率。

World3 提供无代码 AI 代理开发平台,用户可以设计用于社交媒体管理、Web3 代币发布和研究辅助的模块化 AI 代理。

  • 游戏:AI 代理可控制 NPC(非玩家角色),并根据玩家的动作进行实时调整,提升游戏体验。此外,它们还能生成游戏内容,并帮助新玩家熟悉游戏。
    AI竞技场 结合人类玩家的操作数据与模仿学习训练 AI 游戏代理。Nim Network 是一个 AI 游戏公链,提供 代理身份(Agent IDs) 和 零知识证明(ZKP),用于跨链验证 AI 代理。Game3s.GG 设计能够自主探索、指导玩家并与人类玩家并肩作战的 AI 代理。
  • 预测市场:AI 代理分析数据,提供洞察,帮助用户在预测平台上做出更明智的决策。
    GOAT 预测器 是 Ton Network 上的AI代理,为用户提供数据驱动的市场预测。 SynStation是 Soneium 生态中的社区驱动预测市场,利用 AI 代理辅助用户决策。
  • 治理:AI 代理在去中心化自治组织(DAO)治理中发挥重要作用,自动评估提案、进行社区意愿调查、确保防女巫攻击(Sybil-Free Voting),并执行治理政策。
    SyncAI Network 运行 AI 代理,作为Cardano 生态的去中心化治理代表。Olas 提供治理AI代理,负责起草提案、投票并管理 DAO 财库。ElizaOS 的 AI 代理能够分析 DAO 论坛和 Discord 数据,提供治理决策建议。
  • DeFAI 代理:AI 代理可用于执行代币交换、识别收益策略、执行交易策略,并管理跨链资产再平衡。此外,风险管理代理 可以监控链上活动,检测可疑行为,并在必要时撤回流动性。
    Theoriq 的 AI 代理协议 通过AI 代理群体管理 DeFi 交易、优化流动性池并自动化收益策略。Noya 是一个 DeFi 平台,利用 AI 代理进行风险监控和投资组合管理。

总的来说,这些 AI 应用共同构建了一个安全、透明、去中心化的 AI 生态,专为 Web3 需求设计。

结论

从 Web2 到 Web3 AI 系统的演变标志着人工智能开发与部署方式的根本性变革。尽管 Web2 时代的中心化 AI 基础设施 推动了 AI 领域的巨大创新,但它也面临数据隐私、透明度和中心化控制 等重大挑战。Web3 AI 技术栈展示了去中心化系统 如何通过数据 DAO、去中心化计算网络和无需信任的验证机制 解决这些问题。此外,代币激励机制 创造了新的协调机制,有助于推动和维持 这些去中心化网络的长期发展。

展望未来,AI 代理的崛起代表着这一演变的下一个前沿。在接下来的文章中,我们将探讨 AI 代理——从简单的任务型机器人到复杂的自主系统——如何变得越来越智能和强大。这些 AI 代理与 Web3 基础设施的结合,再加上对技术架构、经济激励和治理结构 的深入思考,有可能创造出比 Web2 时代更加公平、透明和高效 的系统。对于 Web3 和 AI 交叉领域的从业者来说,理解 AI 代理的工作原理、不同的复杂性层级,以及AI 代理与真正自主 AI(Agentic AI) 之间的区别,将是至关重要的。

声明:

  1. 本文转载自 [Flashbots],所有版权归原作者 [tesa] 所有。如果对本次转载有任何异议,请联系 Gate Learn 团队,他们将及时处理。
  2. 免责声明:本文所表达的观点和意见仅代表作者个人观点,不构成任何投资建议。
  3. Gate Learn 团队负责本文章的翻译,未经授权,禁止复制、传播或剽窃翻译内容。
Mulai Sekarang
Daftar dan dapatkan Voucher
$100
!