以前の投稿では、我々は探求しましたアプリケーションデザインの歴史第2部では、ブロックチェーンと信頼できる検証が、AIエージェントを本当にエージェントシステムに進化させる方法について探求します。
図1. E2B Web2 AI エージェント ランドスケープ。
現代のAIの景観は主に主要なテクノロジー企業によって制御される中央集権的なプラットフォームやサービスによって特徴付けられています。 OpenAI、Anthropic、Google、Microsoftなどの企業は、大規模な言語モデル(LLM)を提供し、ほとんどのAIエージェントを駆動する重要なクラウドインフラストラクチャやAPIサービスを維持しています。
最近、AIインフラの進歩により、開発者がAIエージェントを作成する方法が根本的に変わりました。特定の相互作用をコーディングする代わりに、開発者は自然な言語を使用してエージェントの振る舞いや目標を定義できるようになり、それにより適応性と洗練されたシステムが実現されています。
図2. AIエージェントインフラストラクチャセグメンテーション。
以下の領域での重要な進展が、AIエージェントの増殖につながっています:
figure_3_ai_business_models1920×1080 178 KB
図 3.AIビジネスモデル。
従来のWeb2 AI企業は、主に階層型のサブスクリプションとコンサルティングサービスをビジネスモデルとして採用しています。
AIエージェントの新興ビジネスモデルには、Gateが含まれます。
現在のWeb2 AIシステムは、テクノロジーと効率性の新時代を切り開いていますが、いくつかの課題に直面しています。
Web2 AIの主要な制約条件—中央集権化、データ所有権、透明性—は、ブロックチェーンとトークン化によって解決されつつあります。Web3は以下の解決策を提供しています:
Web2とWeb3のAIエージェントスタックは、モデルやリソースの調整、ツールやその他のサービス、コンテキストの保持のためのメモリシステムなど、コアコンポーネントを共有しています。ただし、Web3はブロックチェーン技術の組み込みにより、計算リソースの分散化、データ共有とユーザー所有権を促進するトークン、スマートコントラクトを介した信頼できる実行、およびブートストラップされた調整ネットワークを可能にしています。
figure_4_web3_ai_agent_stack1920×3627 407 KB
図 4.Web3 AIエージェントスタック。
データレイヤーは、Web3 AIエージェントスタックの基盤であり、データのあらゆる側面を網羅しています。これには、データソース、来歴の追跡と信頼性の検証、ラベリングシステム、分析と研究のためのデータインテリジェンスツール、さまざまなデータ保持ニーズに対応するストレージソリューションが含まれます。
Computeレイヤーは、AIオペレーションを実行するために必要な処理インフラを提供します。コンピューティングリソースは、次の距離カテゴリに分けることができます: モデル開発のためのトレーニングインフラ、モデルの実行およびエージェントオペレーション用の推論システム、およびローカル分散処理用のエッジコンピューティング。
分散コンピューティングリソースは、中央集権的なクラウドネットワークへの依存を取り除き、セキュリティを向上させ、単一障害点の問題を軽減し、小規模なAI企業が余剰のコンピューティングリソースを活用できるようにします。
1. トレーニング。AIモデルのトレーニングは計算量が多く、集中的です。分散トレーニングコンピュートはAI開発を民主化し、機密性とセキュリティを高めます。中央集権的な制御なしでローカルでデータを処理できるためです。
BittensorそしてゴーレムネットワークAIトレーニングリソースの分散型マーケットプレイスです。Akash NetworkとPhalaTEEを使用して分散コンピューティングリソースを提供します。レンダーネットワークグラフィックGPUネットワークを再利用して、AIタスクのためのコンピューティングを提供しています。
2. 推論。 推論コンピューティングとは、モデルが新しい出力を生成するために必要とするリソース、またはAIアプリケーションやエージェントが動作するために必要とするリソースを指します。大量のデータを処理するリアルタイムアプリケーションや、複数の操作を必要とするエージェントは、より多くの推論コンピューティングパワーを使用します。
双曲線的, Dfinity, そして ハイパースペースspecifically offer inference computing. Inference LabsʻsオムロンBittensor上の推論および検証マーケットプレイスです。Bittensor、Golem Network、Akash Network、Phala、およびRender Networkなどの分散コンピューティングネットワークは、トレーニングおよび推論コンピューティングリソースの両方を提供しています。
3.エッジコンピューティング。エッジコンピューティングは、スマートフォン、IoTデバイス、またはローカルサーバーなどのリモートデバイスでデータをローカルで処理することを意味します。エッジコンピューティングにより、モデルとデータが同じマシン上でローカルで実行されるため、リアルタイムのデータ処理とレイテンシーの低減が可能となります。
グラディエントネットワークSolana上のエッジコンピューティングネットワークです。エッジネットワーク, Theta NetworkそしてAIOZグローバルエッジコンピューティングを可能にする。
検証およびプライバシーレイヤーは、システムの整合性とデータ保護を確保します。コンセンサスメカニズム、ゼロ知識証明(ZKP)、およびTEEが、モデルのトレーニング、推論、および出力を検証するために使用されています。FHEおよびTEEが、データプライバシーを確保するために使用されています。
1.検証可能な計算。検証可能な計算には、モデルのトレーニングと推論が含まれます。
Phala と Atoma Network検証可能なコンピュートとTEEを組み合わせます。インフェリウム検証可能な推論にはZKPとTEEの組み合わせが使用されています。
2.出力証明。出力証明は、AIモデルの出力が本物であり、モデルパラメータを明らかにせずに改ざんされていないことを検証します。出力証明は、出自を提供し、AIエージェントの意思決定を信頼するために重要です。
zkMLのそしてアステカネットワークどちらも、計算出力の完全性を証明するZKPシステムを備えています。Marlinʻs Oyster提供されるTEEネットワークを通じた検証可能なAI推論。
3.データとモデルのプライバシー。FHEおよびその他の暗号技術により、モデルは機密情報を公開せずに暗号化されたデータを処理することができます。個人情報や機密情報を取り扱う際にはデータプライバシーが必要であり、匿名性を保つためにも重要です。
オアシスプロトコルTEEおよびデータ暗号化を介した機密コンピューティングを提供します。パルチシアブロックチェーンGateはAIデータプライバシーを提供するために、高度なMulti-Party Computation(MPC)を使用しています。
コーディネーションレイヤーは、Web3 AIエコシステムのさまざまなコンポーネント間の相互作用を促進します。これには、ディストリビューション、トレーニング、およびインフラストラクチャの微調整のためのモデルマーケットプレイスと、エージェント間の通信とコラボレーションのためのエージェントネットワークが含まれます。
1.ネットワークをモデル化します。モデルネットワークは、AIモデル開発のためのリソースを共有するように設計されています。
2.トレーニング / ファインチューニング。トレーニングネットワークは、トレーニングデータセットの配布と管理に特化しています。ファインチューニングネットワークは、RAG(Retrieval Augmented Generation)やAPIを通じてモデルの外部知識を強化するためのインフラソリューションに焦点を当てています。
Bittensor、Akash Network、およびGolem Networkはトレーニングと微調整ネットワークを提供しています。
3. エージェントネットワーク。 エージェントネットワークは、AIエージェント向けの主要なサービスを提供します:1)ツールと2)エージェントランチパッド。 ツールには他のプロトコルとの接続、標準化されたユーザーインターフェイス、外部サービスとの通信が含まれます。 エージェントランチパッドを使用すると、簡単にAIエージェントの展開と管理が可能になります。
Theoriqエージェントスワームを活用してDeFiトレーディングソリューションを実現します。VirtualsはBaseでトップのAIエージェントランチパッドです。Eliza OSは、最初のオープンソースLLMモデルネットワークでした。アルパカネットワーク and オラスネットワークはコミュニティ所有のAIエージェントプラットフォームです。
サービスレイヤーは、AIアプリケーションとエージェントが効果的に機能するために必要な基本的なミドルウェアとツールを提供します。このレイヤーには、開発ツール、外部データとアプリケーション統合のためのAPI、エージェントコンテキスト保持のためのメモリシステム、知識アクセスを強化するためのRetrieval-Augmented Generation(RAG)、およびテストインフラストラクチャが含まれます。
アプリケーション層はAIスタックのトップに位置し、エンドユーザー向けのソリューションを表します。これには、ウォレット管理、セキュリティ、生産性、取得、予測市場、ガバナンスシステム、およびDeFAIツールなどのユースケースを解決するエージェントが含まれます。
これらのアプリケーションは、Web3のニーズに合わせた安全で透明で分散化されたAIエコシステムに貢献しています。
Web2からWeb3のAIシステムへの進化は、人工知能の開発と展開におけるアプローチの根本的な変化を表しています。Web2の中央集権的なAIインフラは、膨大なイノベーションをもたらしてきましたが、データプライバシー、透明性、中央集権の制御に関する重大な課題に直面しています。Web3のAIスタックは、データDAO、分散型コンピューティングネットワーク、信頼できる検証システムを通じて、これらの制限に対処できる方法を示しています。おそらく最も重要なのは、トークンインセンティブが、これらの分散型ネットワークを立ち上げ、維持するのに役立つ新しい調整メカニズムを生み出していることです。
AIエージェントの台頭は、この進化における次のフロンティアを表しています。次の記事で探求するように、AIエージェント-単純なタスク固有のボットから複雑な自律システムまで-は、ますます洗練され、能力を持っています。これらのエージェントをWeb3インフラストラクチャと統合し、技術アーキテクチャ、経済的インセンティブ、およびガバナンス構造の慎重な考慮と組み合わせることで、Web2時代では可能だったものよりも公正で透明で効率的なシステムを作成する可能性があります。これらのエージェントがどのように機能し、異なる複雑さのレベル、AIエージェントと本当にエージェント的なAIの違いを理解することは、AIとWeb3の交差点で活動しているすべての人にとって重要になります。
以前の投稿では、我々は探求しましたアプリケーションデザインの歴史第2部では、ブロックチェーンと信頼できる検証が、AIエージェントを本当にエージェントシステムに進化させる方法について探求します。
図1. E2B Web2 AI エージェント ランドスケープ。
現代のAIの景観は主に主要なテクノロジー企業によって制御される中央集権的なプラットフォームやサービスによって特徴付けられています。 OpenAI、Anthropic、Google、Microsoftなどの企業は、大規模な言語モデル(LLM)を提供し、ほとんどのAIエージェントを駆動する重要なクラウドインフラストラクチャやAPIサービスを維持しています。
最近、AIインフラの進歩により、開発者がAIエージェントを作成する方法が根本的に変わりました。特定の相互作用をコーディングする代わりに、開発者は自然な言語を使用してエージェントの振る舞いや目標を定義できるようになり、それにより適応性と洗練されたシステムが実現されています。
図2. AIエージェントインフラストラクチャセグメンテーション。
以下の領域での重要な進展が、AIエージェントの増殖につながっています:
figure_3_ai_business_models1920×1080 178 KB
図 3.AIビジネスモデル。
従来のWeb2 AI企業は、主に階層型のサブスクリプションとコンサルティングサービスをビジネスモデルとして採用しています。
AIエージェントの新興ビジネスモデルには、Gateが含まれます。
現在のWeb2 AIシステムは、テクノロジーと効率性の新時代を切り開いていますが、いくつかの課題に直面しています。
Web2 AIの主要な制約条件—中央集権化、データ所有権、透明性—は、ブロックチェーンとトークン化によって解決されつつあります。Web3は以下の解決策を提供しています:
Web2とWeb3のAIエージェントスタックは、モデルやリソースの調整、ツールやその他のサービス、コンテキストの保持のためのメモリシステムなど、コアコンポーネントを共有しています。ただし、Web3はブロックチェーン技術の組み込みにより、計算リソースの分散化、データ共有とユーザー所有権を促進するトークン、スマートコントラクトを介した信頼できる実行、およびブートストラップされた調整ネットワークを可能にしています。
figure_4_web3_ai_agent_stack1920×3627 407 KB
図 4.Web3 AIエージェントスタック。
データレイヤーは、Web3 AIエージェントスタックの基盤であり、データのあらゆる側面を網羅しています。これには、データソース、来歴の追跡と信頼性の検証、ラベリングシステム、分析と研究のためのデータインテリジェンスツール、さまざまなデータ保持ニーズに対応するストレージソリューションが含まれます。
Computeレイヤーは、AIオペレーションを実行するために必要な処理インフラを提供します。コンピューティングリソースは、次の距離カテゴリに分けることができます: モデル開発のためのトレーニングインフラ、モデルの実行およびエージェントオペレーション用の推論システム、およびローカル分散処理用のエッジコンピューティング。
分散コンピューティングリソースは、中央集権的なクラウドネットワークへの依存を取り除き、セキュリティを向上させ、単一障害点の問題を軽減し、小規模なAI企業が余剰のコンピューティングリソースを活用できるようにします。
1. トレーニング。AIモデルのトレーニングは計算量が多く、集中的です。分散トレーニングコンピュートはAI開発を民主化し、機密性とセキュリティを高めます。中央集権的な制御なしでローカルでデータを処理できるためです。
BittensorそしてゴーレムネットワークAIトレーニングリソースの分散型マーケットプレイスです。Akash NetworkとPhalaTEEを使用して分散コンピューティングリソースを提供します。レンダーネットワークグラフィックGPUネットワークを再利用して、AIタスクのためのコンピューティングを提供しています。
2. 推論。 推論コンピューティングとは、モデルが新しい出力を生成するために必要とするリソース、またはAIアプリケーションやエージェントが動作するために必要とするリソースを指します。大量のデータを処理するリアルタイムアプリケーションや、複数の操作を必要とするエージェントは、より多くの推論コンピューティングパワーを使用します。
双曲線的, Dfinity, そして ハイパースペースspecifically offer inference computing. Inference LabsʻsオムロンBittensor上の推論および検証マーケットプレイスです。Bittensor、Golem Network、Akash Network、Phala、およびRender Networkなどの分散コンピューティングネットワークは、トレーニングおよび推論コンピューティングリソースの両方を提供しています。
3.エッジコンピューティング。エッジコンピューティングは、スマートフォン、IoTデバイス、またはローカルサーバーなどのリモートデバイスでデータをローカルで処理することを意味します。エッジコンピューティングにより、モデルとデータが同じマシン上でローカルで実行されるため、リアルタイムのデータ処理とレイテンシーの低減が可能となります。
グラディエントネットワークSolana上のエッジコンピューティングネットワークです。エッジネットワーク, Theta NetworkそしてAIOZグローバルエッジコンピューティングを可能にする。
検証およびプライバシーレイヤーは、システムの整合性とデータ保護を確保します。コンセンサスメカニズム、ゼロ知識証明(ZKP)、およびTEEが、モデルのトレーニング、推論、および出力を検証するために使用されています。FHEおよびTEEが、データプライバシーを確保するために使用されています。
1.検証可能な計算。検証可能な計算には、モデルのトレーニングと推論が含まれます。
Phala と Atoma Network検証可能なコンピュートとTEEを組み合わせます。インフェリウム検証可能な推論にはZKPとTEEの組み合わせが使用されています。
2.出力証明。出力証明は、AIモデルの出力が本物であり、モデルパラメータを明らかにせずに改ざんされていないことを検証します。出力証明は、出自を提供し、AIエージェントの意思決定を信頼するために重要です。
zkMLのそしてアステカネットワークどちらも、計算出力の完全性を証明するZKPシステムを備えています。Marlinʻs Oyster提供されるTEEネットワークを通じた検証可能なAI推論。
3.データとモデルのプライバシー。FHEおよびその他の暗号技術により、モデルは機密情報を公開せずに暗号化されたデータを処理することができます。個人情報や機密情報を取り扱う際にはデータプライバシーが必要であり、匿名性を保つためにも重要です。
オアシスプロトコルTEEおよびデータ暗号化を介した機密コンピューティングを提供します。パルチシアブロックチェーンGateはAIデータプライバシーを提供するために、高度なMulti-Party Computation(MPC)を使用しています。
コーディネーションレイヤーは、Web3 AIエコシステムのさまざまなコンポーネント間の相互作用を促進します。これには、ディストリビューション、トレーニング、およびインフラストラクチャの微調整のためのモデルマーケットプレイスと、エージェント間の通信とコラボレーションのためのエージェントネットワークが含まれます。
1.ネットワークをモデル化します。モデルネットワークは、AIモデル開発のためのリソースを共有するように設計されています。
2.トレーニング / ファインチューニング。トレーニングネットワークは、トレーニングデータセットの配布と管理に特化しています。ファインチューニングネットワークは、RAG(Retrieval Augmented Generation)やAPIを通じてモデルの外部知識を強化するためのインフラソリューションに焦点を当てています。
Bittensor、Akash Network、およびGolem Networkはトレーニングと微調整ネットワークを提供しています。
3. エージェントネットワーク。 エージェントネットワークは、AIエージェント向けの主要なサービスを提供します:1)ツールと2)エージェントランチパッド。 ツールには他のプロトコルとの接続、標準化されたユーザーインターフェイス、外部サービスとの通信が含まれます。 エージェントランチパッドを使用すると、簡単にAIエージェントの展開と管理が可能になります。
Theoriqエージェントスワームを活用してDeFiトレーディングソリューションを実現します。VirtualsはBaseでトップのAIエージェントランチパッドです。Eliza OSは、最初のオープンソースLLMモデルネットワークでした。アルパカネットワーク and オラスネットワークはコミュニティ所有のAIエージェントプラットフォームです。
サービスレイヤーは、AIアプリケーションとエージェントが効果的に機能するために必要な基本的なミドルウェアとツールを提供します。このレイヤーには、開発ツール、外部データとアプリケーション統合のためのAPI、エージェントコンテキスト保持のためのメモリシステム、知識アクセスを強化するためのRetrieval-Augmented Generation(RAG)、およびテストインフラストラクチャが含まれます。
アプリケーション層はAIスタックのトップに位置し、エンドユーザー向けのソリューションを表します。これには、ウォレット管理、セキュリティ、生産性、取得、予測市場、ガバナンスシステム、およびDeFAIツールなどのユースケースを解決するエージェントが含まれます。
これらのアプリケーションは、Web3のニーズに合わせた安全で透明で分散化されたAIエコシステムに貢献しています。
Web2からWeb3のAIシステムへの進化は、人工知能の開発と展開におけるアプローチの根本的な変化を表しています。Web2の中央集権的なAIインフラは、膨大なイノベーションをもたらしてきましたが、データプライバシー、透明性、中央集権の制御に関する重大な課題に直面しています。Web3のAIスタックは、データDAO、分散型コンピューティングネットワーク、信頼できる検証システムを通じて、これらの制限に対処できる方法を示しています。おそらく最も重要なのは、トークンインセンティブが、これらの分散型ネットワークを立ち上げ、維持するのに役立つ新しい調整メカニズムを生み出していることです。
AIエージェントの台頭は、この進化における次のフロンティアを表しています。次の記事で探求するように、AIエージェント-単純なタスク固有のボットから複雑な自律システムまで-は、ますます洗練され、能力を持っています。これらのエージェントをWeb3インフラストラクチャと統合し、技術アーキテクチャ、経済的インセンティブ、およびガバナンス構造の慎重な考慮と組み合わせることで、Web2時代では可能だったものよりも公正で透明で効率的なシステムを作成する可能性があります。これらのエージェントがどのように機能し、異なる複雑さのレベル、AIエージェントと本当にエージェント的なAIの違いを理解することは、AIとWeb3の交差点で活動しているすべての人にとって重要になります。