在之前的文章中,我们回顾了应用设计的历史。而在本篇“Agentic AI”系列的第二篇文章第一部分,我们将聚焦 Web2 时代的 AI 生态,分析其发展趋势、代表性平台和关键技术。在第二部分中,我们将进一步探讨区块链和去信任化验证技术如何推动 AI 代理系统向真正的自主智能系统演进。
当前的 AI 生态仍然由大型科技公司主导,它们控制着中心化的平台和服务。OpenAI、Anthropic、Google 和 Microsoft 等公司不仅提供先进的大型语言模型(LLMs),还负责维持关键的云计算基础设施和 API 服务,支撑着大多数 AI 代理的运行。
随着 AI 技术的进步,开发 AI 代理的方式也发生了巨大变化。开发者无需编写繁琐的代码,而是可以直接使用自然语言定义 AI 代理的行为和目标,使其更具灵活性和智能性。
图 2:AI 代理基础设施示意图
AI 代理的发展主要得益于以下几个关键领域的突破:
LLMs 彻底改变了 AI 代理对自然语言的理解和生成方式,取代了传统的基于规则的系统,具备更先进的理解能力。它们通过“链式思维”推理实现复杂的推理和规划能力。
目前,大多数 AI 应用都建立在中心化的 LLM 模型之上,例如 OpenAI 的 GPT-4、Anthropic 的 Claude,以及 Google 的 Gemini。
开源 AI 模型包括 DeepSeek、Meta 的 LLaMa、Google 的 PaLM 2 和 LaMDA、Mistral AI的 Mistral 7B、xAI 的 Grok 和 Grok-1、LM Studio 的 Vicuna-13B 以及阿布扎比技术创新研究院(TII)开发的 Falcon 模型。
许多新兴框架和工具正在帮助企业更轻松地构建多代理 AI 应用。这些框架支持各种 LLM,并提供预构建的功能,如记忆管理、自定义工具和外部数据集成,从而大大减少开发难度,加速 AI 代理的创新和落地。
主要的代理框架包括 Phidata、OpenAI Swarm、CrewAI、LangChain LangGraph,、LlamaIndex、、开源的 Microsoft Autogen, Vertex AI 和 LangFlow,它们使开发 AI 助手的代码需求降至最低。
自主 AI 平台旨在协调多个 AI 代理,使其在分布式环境下自主解决复杂问题。这些系统能够动态适应和协作,为 AI 代理的扩展提供稳健的解决方案。它们的目标是使 AI 代理技术更易于企业应用,并能直接集成到现有系统中。
主要的自主 AI 平台包括 Microsoft Autogen、Langchain LangGraph、Microsoft Semantic Kernel 和 CrewAI。
RAG 允许 LLM 在回答查询之前访问外部数据库或文档,从而提高准确性并减少幻觉现象。RAG 的发展使 AI 代理能够适应并从新信息源中学习,无需频繁重新训练模型。
主要的 RAG 工具包括 K2View、Haystack、 LangChain,、LlamaIndex,、RAGatouille,以及开源的 EmbedChain 和InfiniFlow。
这类平台允许用户通过拖放工具、可视化界面或问答向导来构建 AI 模型。用户可以直接将 AI 代理部署到应用程序中,实现自动化流程。零代码平台降低了 AI 代理的开发门槛,使 AI 应用更易于访问,同时加快开发周期,促进创新。
主要的零代码平台包括 BuildFire AI、 Google Teachable Machine 和 Amazon SageMaker。
此外,还有一些专门用于 AI 代理的零代码平台,例如 Obviously AI(用于商业预测)、Lobe AI(用于图像分类)和 Nanonets(用于文档处理)。
图 3:AI 业务模型示意图
传统的 Web2 AI 公司主要采用分层订阅和咨询服务作为其商业模式。
新兴的 AI 代理商业模式包括:
尽管当前的 Web2 AI 系统推动了技术和效率的提升,但它们仍然面临诸多挑战:
Web2 AI 的主要限制——中心化、数据所有权和透明度问题——正在通过区块链和代币化机制得到解决。Web3 提供了以下解决方案:
Web2 和 Web3 AI 代理的技术架构在核心组件上存在共性,例如模型和资源协调、工具和其他服务、以及用于上下文保留的记忆系统。然而,Web3 通过引入区块链技术,实现了以下去中心化特性:
图 4:Web3_AI代理技术架构
数据层是 Web3 AI 代理技术架构的基础,涵盖数据的各个方面,包括数据来源、溯源追踪和真实性验证、标注系统、数据分析和研究工具,以及不同的数据存储解决方案。
1.数据来源:数据来源指的是 Web3 AI 生态系统中数据的不同来源。
2.数据溯源:数据溯源对于确保数据完整性、减少偏见、提高可追溯性至关重要。数据溯源技术能够记录数据的起源,并追踪数据的变更历史,以确保 AI 训练数据的可靠性。Web3 解决方案包括:
基于区块链的元数据: 通过区块链记录数据的来源及其修改历史(代表项目 Ocean Protocol 和 Filecoin’s Project Origin)。
去中心化知识图谱: 追踪数据流向并提供可验证的数据来源(如 OriginTrail)。
零知识证明: 生成数据溯源和审计的加密证明,以提高数据的可信性(如 Fact Fortress 和 Reclaim Protocol)。
3.数据标注: 传统上需要人工对数据进行分类和标记,以便用于监督学习模型的训练。Web3 通过代币激励机制,鼓励众包工作者参与数据预处理。
在 Web2 领域,Scale AI 的年收入达 10 亿美元,客户包括 OpenAI、Anthropic 和 Cohere。而在 Web3 领域,Human Protocol 和 Ocean Protocol 采用众包模式进行数据标注,并通过代币奖励贡献者,Alaya AI 和 Fetch.ai 则采用 AI 代理执行数据标注任务。
4.数据智能工具:数据智能工具是用于分析和提取数据洞察的软件解决方案,它们能够提高数据质量,确保合规性和安全性,并通过优化数据质量来提升 AI 模型的表现。区块链分析公司包括 Arkham、 Nansen 和 Dune,而 Messari提供链下研究服务,Kaito 通过 API 提供社交媒体情绪分析,使 AI 模型能够利用更丰富的数据源进行训练。
5.数据存储:采用代币激励模式,实现去中心化和分布式存储,使数据能够在独立的节点网络中存储和共享。数据通常经过加密,并分布在多个节点上,以确保冗余存储和隐私安全。
Filecoin 是最早的去中心化存储项目之一,用户可以提供闲置硬盘空间存储加密数据,并获得代币奖励。 IPFS (星际文件系统)通过点对点网络存储和共享数据,利用唯一的加密哈希确保数据的完整性。 Arweave 提供永久数据存储方案,并通过区块奖励补贴存储成本,而 Storj 提供兼容 S3 API 的存储解决方案,使现有企业应用能够轻松从云存储迁移至去中心化存储系统。
计算层提供运行 AI 操作所需的处理基础设施。计算资源可分为不同类别:用于模型开发的训练基础设施、用于模型执行和 AI 代理运行的推理系统,以及本地去中心化计算的边缘计算。去中心化计算资源减少了对中心化云网络的依赖,提高了安全性,降低了单点故障的风险,同时允许较小的 AI 公司利用多余的计算资源。
1.训练:AI 模型训练通常计算密集且成本高昂,而去中心化的训练计算资源能够使 AI 开发更加民主化,同时提升隐私和安全性,因为敏感数据可以在本地处理,而无需受制于中心化平台。
2.推理:推理计算指的是模型生成新输出或 AI 应用及 AI 代理运行所需的计算资源。实时处理大量数据的应用,或需要多次操作的 AI 代理,通常需要更强大的推理计算能力。
3.边缘计算:边缘计算指的是在智能手机、物联网(IoT)设备或本地服务器等远程设备上进行本地数据处理。由于数据和模型运行在同一设备上,边缘计算可实现实时数据处理并减少延迟。
验证与隐私层负责确保系统的完整性和数据安全。共识机制、零知识证明(ZKPs)和可信执行环境(TEEs) 用于验证模型训练、推理计算和输出结果。完全同态加密(FHE)和 TEEs 用于保护数据隐私。
1.可验证计算:可验证计算包括模型训练和推理计算,确保 AI 计算过程可被外部审计和验证。
2.输出证明:输出证明用于验证 AI 模型的输出结果是否真实,确保结果未经篡改,同时不泄露模型参数。输出证明还提供数据溯源,对于 AI 代理的可信决策至关重要。
3.数据与模型隐私:完全同态加密(FHE) 和其他密码学技术使 AI 模型能够在加密数据上进行计算,而不会暴露敏感信息。在处理个人数据或隐私数据时,数据隐私保护至关重要,可用于保护匿名性。可验证计算:可验证计算包括模型训练和推理计算,确保 AI 计算过程可被外部审计和验证。
协调层促进 Web3 AI 生态系统中不同组件之间的交互,包括模型市场用于 AI 资源分发、训练和微调基础设施 以及 代理网络以实现 AI 代理之间的沟通和协作。
Bittensor、 Sentient 和 Akash Network 为用户提供计算资源和市场,以支持 LLM 的开发。
Fetch AI 作为 AI 代理市场,支持 AI 代理的创建和交易。
Virtuals 是 Base 上的领先 AI 代理启动平台。
Eliza OS 是首个开源 LLM 模型网络。
Alpaca Network 和 Olas Network 是社区驱动的 AI 代理平台。
服务层为 AI 应用和代理提供必要的中间件和工具,确保其高效运行。该层涵盖开发工具、外部数据 API、记忆系统、检索增强生成(RAG) 以优化知识访问,以及测试基础设施 以确保 AI 代理的可靠性。
Coinbase 的 AgentKit 允许 AI 代理执行支付和代币转账。LangChain 和 Payman 提供支付请求和发送选项。
Virtuals Protocol 是领先的 AI 代理启动平台,支持创建、部署和变现 AI 代理。Top Hat 和 Griffain 是 Solana 生态中的 AI 代理启动平台。
Biconomy 提供 Session Keys ,允许 AI 代理仅与白名单智能合约 交互。
SubQuery Network 提供去中心化数据索引器和RPC 端点,支持 AI 代理和应用的运行。
ElizaOS 和 KIP Protocol 提供 AI 代理插件,连接外部数据源,如 X(推特) 和Farcaster。
短期记忆:代理可以保留交互历史,以提供更连贯、上下文相关的回答。
长期记忆:代理可以存储和分析过往交互,提高 AI 代理的个性化能力和长期适应性。
ElizaOS 在其 AI 代理网络中提供记忆管理功能。
Mem0AI 和 Unibase AI 正在构建 AI 应用和代理的记忆层,增强 AI 代理的长期学习能力。
Alchemy 的 AI 助手 ChatWeb3 能够执行复杂查询和测试,评估 AI 代理的功能实现是否正确。
应用层是 AI 技术栈的最上层,代表着最终用户可以直接使用的 AI 解决方案。这些应用涵盖钱包管理、安全性、生产力提升、游戏、预测市场、治理系统和 DeFAI(去中心化金融 AI)工具等多个场景。
World3 提供无代码 AI 代理开发平台,用户可以设计用于社交媒体管理、Web3 代币发布和研究辅助的模块化 AI 代理。
总的来说,这些 AI 应用共同构建了一个安全、透明、去中心化的 AI 生态,专为 Web3 需求设计。
从 Web2 到 Web3 AI 系统的演变标志着人工智能开发与部署方式的根本性变革。尽管 Web2 时代的中心化 AI 基础设施 推动了 AI 领域的巨大创新,但它也面临数据隐私、透明度和中心化控制 等重大挑战。Web3 AI 技术栈展示了去中心化系统 如何通过数据 DAO、去中心化计算网络和无需信任的验证机制 解决这些问题。此外,代币激励机制 创造了新的协调机制,有助于推动和维持 这些去中心化网络的长期发展。
展望未来,AI 代理的崛起代表着这一演变的下一个前沿。在接下来的文章中,我们将探讨 AI 代理——从简单的任务型机器人到复杂的自主系统——如何变得越来越智能和强大。这些 AI 代理与 Web3 基础设施的结合,再加上对技术架构、经济激励和治理结构 的深入思考,有可能创造出比 Web2 时代更加公平、透明和高效 的系统。对于 Web3 和 AI 交叉领域的从业者来说,理解 AI 代理的工作原理、不同的复杂性层级,以及AI 代理与真正自主 AI(Agentic AI) 之间的区别,将是至关重要的。
在之前的文章中,我们回顾了应用设计的历史。而在本篇“Agentic AI”系列的第二篇文章第一部分,我们将聚焦 Web2 时代的 AI 生态,分析其发展趋势、代表性平台和关键技术。在第二部分中,我们将进一步探讨区块链和去信任化验证技术如何推动 AI 代理系统向真正的自主智能系统演进。
当前的 AI 生态仍然由大型科技公司主导,它们控制着中心化的平台和服务。OpenAI、Anthropic、Google 和 Microsoft 等公司不仅提供先进的大型语言模型(LLMs),还负责维持关键的云计算基础设施和 API 服务,支撑着大多数 AI 代理的运行。
随着 AI 技术的进步,开发 AI 代理的方式也发生了巨大变化。开发者无需编写繁琐的代码,而是可以直接使用自然语言定义 AI 代理的行为和目标,使其更具灵活性和智能性。
图 2:AI 代理基础设施示意图
AI 代理的发展主要得益于以下几个关键领域的突破:
LLMs 彻底改变了 AI 代理对自然语言的理解和生成方式,取代了传统的基于规则的系统,具备更先进的理解能力。它们通过“链式思维”推理实现复杂的推理和规划能力。
目前,大多数 AI 应用都建立在中心化的 LLM 模型之上,例如 OpenAI 的 GPT-4、Anthropic 的 Claude,以及 Google 的 Gemini。
开源 AI 模型包括 DeepSeek、Meta 的 LLaMa、Google 的 PaLM 2 和 LaMDA、Mistral AI的 Mistral 7B、xAI 的 Grok 和 Grok-1、LM Studio 的 Vicuna-13B 以及阿布扎比技术创新研究院(TII)开发的 Falcon 模型。
许多新兴框架和工具正在帮助企业更轻松地构建多代理 AI 应用。这些框架支持各种 LLM,并提供预构建的功能,如记忆管理、自定义工具和外部数据集成,从而大大减少开发难度,加速 AI 代理的创新和落地。
主要的代理框架包括 Phidata、OpenAI Swarm、CrewAI、LangChain LangGraph,、LlamaIndex、、开源的 Microsoft Autogen, Vertex AI 和 LangFlow,它们使开发 AI 助手的代码需求降至最低。
自主 AI 平台旨在协调多个 AI 代理,使其在分布式环境下自主解决复杂问题。这些系统能够动态适应和协作,为 AI 代理的扩展提供稳健的解决方案。它们的目标是使 AI 代理技术更易于企业应用,并能直接集成到现有系统中。
主要的自主 AI 平台包括 Microsoft Autogen、Langchain LangGraph、Microsoft Semantic Kernel 和 CrewAI。
RAG 允许 LLM 在回答查询之前访问外部数据库或文档,从而提高准确性并减少幻觉现象。RAG 的发展使 AI 代理能够适应并从新信息源中学习,无需频繁重新训练模型。
主要的 RAG 工具包括 K2View、Haystack、 LangChain,、LlamaIndex,、RAGatouille,以及开源的 EmbedChain 和InfiniFlow。
这类平台允许用户通过拖放工具、可视化界面或问答向导来构建 AI 模型。用户可以直接将 AI 代理部署到应用程序中,实现自动化流程。零代码平台降低了 AI 代理的开发门槛,使 AI 应用更易于访问,同时加快开发周期,促进创新。
主要的零代码平台包括 BuildFire AI、 Google Teachable Machine 和 Amazon SageMaker。
此外,还有一些专门用于 AI 代理的零代码平台,例如 Obviously AI(用于商业预测)、Lobe AI(用于图像分类)和 Nanonets(用于文档处理)。
图 3:AI 业务模型示意图
传统的 Web2 AI 公司主要采用分层订阅和咨询服务作为其商业模式。
新兴的 AI 代理商业模式包括:
尽管当前的 Web2 AI 系统推动了技术和效率的提升,但它们仍然面临诸多挑战:
Web2 AI 的主要限制——中心化、数据所有权和透明度问题——正在通过区块链和代币化机制得到解决。Web3 提供了以下解决方案:
Web2 和 Web3 AI 代理的技术架构在核心组件上存在共性,例如模型和资源协调、工具和其他服务、以及用于上下文保留的记忆系统。然而,Web3 通过引入区块链技术,实现了以下去中心化特性:
图 4:Web3_AI代理技术架构
数据层是 Web3 AI 代理技术架构的基础,涵盖数据的各个方面,包括数据来源、溯源追踪和真实性验证、标注系统、数据分析和研究工具,以及不同的数据存储解决方案。
1.数据来源:数据来源指的是 Web3 AI 生态系统中数据的不同来源。
2.数据溯源:数据溯源对于确保数据完整性、减少偏见、提高可追溯性至关重要。数据溯源技术能够记录数据的起源,并追踪数据的变更历史,以确保 AI 训练数据的可靠性。Web3 解决方案包括:
基于区块链的元数据: 通过区块链记录数据的来源及其修改历史(代表项目 Ocean Protocol 和 Filecoin’s Project Origin)。
去中心化知识图谱: 追踪数据流向并提供可验证的数据来源(如 OriginTrail)。
零知识证明: 生成数据溯源和审计的加密证明,以提高数据的可信性(如 Fact Fortress 和 Reclaim Protocol)。
3.数据标注: 传统上需要人工对数据进行分类和标记,以便用于监督学习模型的训练。Web3 通过代币激励机制,鼓励众包工作者参与数据预处理。
在 Web2 领域,Scale AI 的年收入达 10 亿美元,客户包括 OpenAI、Anthropic 和 Cohere。而在 Web3 领域,Human Protocol 和 Ocean Protocol 采用众包模式进行数据标注,并通过代币奖励贡献者,Alaya AI 和 Fetch.ai 则采用 AI 代理执行数据标注任务。
4.数据智能工具:数据智能工具是用于分析和提取数据洞察的软件解决方案,它们能够提高数据质量,确保合规性和安全性,并通过优化数据质量来提升 AI 模型的表现。区块链分析公司包括 Arkham、 Nansen 和 Dune,而 Messari提供链下研究服务,Kaito 通过 API 提供社交媒体情绪分析,使 AI 模型能够利用更丰富的数据源进行训练。
5.数据存储:采用代币激励模式,实现去中心化和分布式存储,使数据能够在独立的节点网络中存储和共享。数据通常经过加密,并分布在多个节点上,以确保冗余存储和隐私安全。
Filecoin 是最早的去中心化存储项目之一,用户可以提供闲置硬盘空间存储加密数据,并获得代币奖励。 IPFS (星际文件系统)通过点对点网络存储和共享数据,利用唯一的加密哈希确保数据的完整性。 Arweave 提供永久数据存储方案,并通过区块奖励补贴存储成本,而 Storj 提供兼容 S3 API 的存储解决方案,使现有企业应用能够轻松从云存储迁移至去中心化存储系统。
计算层提供运行 AI 操作所需的处理基础设施。计算资源可分为不同类别:用于模型开发的训练基础设施、用于模型执行和 AI 代理运行的推理系统,以及本地去中心化计算的边缘计算。去中心化计算资源减少了对中心化云网络的依赖,提高了安全性,降低了单点故障的风险,同时允许较小的 AI 公司利用多余的计算资源。
1.训练:AI 模型训练通常计算密集且成本高昂,而去中心化的训练计算资源能够使 AI 开发更加民主化,同时提升隐私和安全性,因为敏感数据可以在本地处理,而无需受制于中心化平台。
2.推理:推理计算指的是模型生成新输出或 AI 应用及 AI 代理运行所需的计算资源。实时处理大量数据的应用,或需要多次操作的 AI 代理,通常需要更强大的推理计算能力。
3.边缘计算:边缘计算指的是在智能手机、物联网(IoT)设备或本地服务器等远程设备上进行本地数据处理。由于数据和模型运行在同一设备上,边缘计算可实现实时数据处理并减少延迟。
验证与隐私层负责确保系统的完整性和数据安全。共识机制、零知识证明(ZKPs)和可信执行环境(TEEs) 用于验证模型训练、推理计算和输出结果。完全同态加密(FHE)和 TEEs 用于保护数据隐私。
1.可验证计算:可验证计算包括模型训练和推理计算,确保 AI 计算过程可被外部审计和验证。
2.输出证明:输出证明用于验证 AI 模型的输出结果是否真实,确保结果未经篡改,同时不泄露模型参数。输出证明还提供数据溯源,对于 AI 代理的可信决策至关重要。
3.数据与模型隐私:完全同态加密(FHE) 和其他密码学技术使 AI 模型能够在加密数据上进行计算,而不会暴露敏感信息。在处理个人数据或隐私数据时,数据隐私保护至关重要,可用于保护匿名性。可验证计算:可验证计算包括模型训练和推理计算,确保 AI 计算过程可被外部审计和验证。
协调层促进 Web3 AI 生态系统中不同组件之间的交互,包括模型市场用于 AI 资源分发、训练和微调基础设施 以及 代理网络以实现 AI 代理之间的沟通和协作。
Bittensor、 Sentient 和 Akash Network 为用户提供计算资源和市场,以支持 LLM 的开发。
Fetch AI 作为 AI 代理市场,支持 AI 代理的创建和交易。
Virtuals 是 Base 上的领先 AI 代理启动平台。
Eliza OS 是首个开源 LLM 模型网络。
Alpaca Network 和 Olas Network 是社区驱动的 AI 代理平台。
服务层为 AI 应用和代理提供必要的中间件和工具,确保其高效运行。该层涵盖开发工具、外部数据 API、记忆系统、检索增强生成(RAG) 以优化知识访问,以及测试基础设施 以确保 AI 代理的可靠性。
Coinbase 的 AgentKit 允许 AI 代理执行支付和代币转账。LangChain 和 Payman 提供支付请求和发送选项。
Virtuals Protocol 是领先的 AI 代理启动平台,支持创建、部署和变现 AI 代理。Top Hat 和 Griffain 是 Solana 生态中的 AI 代理启动平台。
Biconomy 提供 Session Keys ,允许 AI 代理仅与白名单智能合约 交互。
SubQuery Network 提供去中心化数据索引器和RPC 端点,支持 AI 代理和应用的运行。
ElizaOS 和 KIP Protocol 提供 AI 代理插件,连接外部数据源,如 X(推特) 和Farcaster。
短期记忆:代理可以保留交互历史,以提供更连贯、上下文相关的回答。
长期记忆:代理可以存储和分析过往交互,提高 AI 代理的个性化能力和长期适应性。
ElizaOS 在其 AI 代理网络中提供记忆管理功能。
Mem0AI 和 Unibase AI 正在构建 AI 应用和代理的记忆层,增强 AI 代理的长期学习能力。
Alchemy 的 AI 助手 ChatWeb3 能够执行复杂查询和测试,评估 AI 代理的功能实现是否正确。
应用层是 AI 技术栈的最上层,代表着最终用户可以直接使用的 AI 解决方案。这些应用涵盖钱包管理、安全性、生产力提升、游戏、预测市场、治理系统和 DeFAI(去中心化金融 AI)工具等多个场景。
World3 提供无代码 AI 代理开发平台,用户可以设计用于社交媒体管理、Web3 代币发布和研究辅助的模块化 AI 代理。
总的来说,这些 AI 应用共同构建了一个安全、透明、去中心化的 AI 生态,专为 Web3 需求设计。
从 Web2 到 Web3 AI 系统的演变标志着人工智能开发与部署方式的根本性变革。尽管 Web2 时代的中心化 AI 基础设施 推动了 AI 领域的巨大创新,但它也面临数据隐私、透明度和中心化控制 等重大挑战。Web3 AI 技术栈展示了去中心化系统 如何通过数据 DAO、去中心化计算网络和无需信任的验证机制 解决这些问题。此外,代币激励机制 创造了新的协调机制,有助于推动和维持 这些去中心化网络的长期发展。
展望未来,AI 代理的崛起代表着这一演变的下一个前沿。在接下来的文章中,我们将探讨 AI 代理——从简单的任务型机器人到复杂的自主系统——如何变得越来越智能和强大。这些 AI 代理与 Web3 基础设施的结合,再加上对技术架构、经济激励和治理结构 的深入思考,有可能创造出比 Web2 时代更加公平、透明和高效 的系统。对于 Web3 和 AI 交叉领域的从业者来说,理解 AI 代理的工作原理、不同的复杂性层级,以及AI 代理与真正自主 AI(Agentic AI) 之间的区别,将是至关重要的。