Dans notre précédent post, nous avons exploré le Histoire de la conception d'application. Dans la première partie de notre deuxième publication de la série Agentic AI, nous examinons le paysage actuel de l'IA Web2 et ses tendances, plateformes et technologies clés. Dans la deuxième partie, nous explorons comment la blockchain et la vérification sans confiance permettent l'évolution des agents d'IA en systèmes vraiment agentic.
Figure 1. Paysage de l'agent IA Web2 E2B.
Le paysage IA contemporain est principalement caractérisé par des plates-formes centralisées et des services contrôlés par les grandes entreprises technologiques. Des entreprises comme OpenAI, Anthropic, Google et Microsoft fournissent de grands modèles linguistiques (LLMs) et maintiennent une infrastructure cloud cruciale et des services API qui alimentent la plupart des agents IA.
Les récents progrès de l'infrastructure de l'IA ont fondamentalement transformé la façon dont les développeurs créent des agents IA. Au lieu de coder des interactions spécifiques, les développeurs peuvent maintenant utiliser le langage naturel pour définir les comportements et les objectifs des agents, ce qui conduit à des systèmes plus adaptables et sophistiqués.
Figure 2. Infrastructure de l'agent AI Segmentation.
Les avancées clés dans les domaines suivants ont conduit à une prolifération des agents d'IA :
figure_3_ai_business_models1920×1080 178 Ko
Graphique 3. Modèles d’affaires de l’IA.
Les entreprises traditionnelles d'IA Web2 emploient principalement des abonnements échelonnés et des services de conseil comme modèles économiques.
Les modèles d’affaires émergents pour les agents d’IA comprennent :
Alors que les systèmes d’IA Web2 actuels ont ouvert une nouvelle ère de technologie et d’efficacité, ils sont confrontés à plusieurs défis.
Les principales contraintes de l’IA Web2 (centralisation, propriété des données et transparence) sont résolues par la blockchain et la tokenisation. Le Web3 offre les solutions suivantes :
Les piles d'agents d'IA Web2 et Web3 partagent des composants de base tels que la coordination des modèles et des ressources, des outils et d'autres services, et des systèmes de mémoire pour la rétention du contexte. Cependant, l'incorporation des technologies blockchain par Web3 permet la décentralisation des ressources de calcul, des jetons pour inciter au partage de données et à la propriété des utilisateurs, une exécution sans confiance via des contrats intelligents, et des réseaux de coordination amorcés.
figure_4_web3_ai_agent_stack1920×3627 407 KB
Figure 4. Web3 Agent d'IA Stack.
La couche de données est le fondement de la pile d'agents d'IA Web3 et englobe tous les aspects des données. Elle comprend les sources de données, le suivi de la provenance et la vérification de l'authenticité, les systèmes d'étiquetage, les outils d'intelligence des données pour l'analyse et la recherche, et les solutions de stockage pour différents besoins de conservation des données.
La couche de calcul fournit l'infrastructure de traitement nécessaire pour exécuter les opérations d'IA. Les ressources de calcul peuvent être divisées en différentes catégories : infrastructure de formation pour le développement de modèles, systèmes d'inférence pour l'exécution de modèles et les opérations des agents, et le calcul en périphérie pour le traitement local décentralisé.
Les ressources informatiques distribuées éliminent la dépendance aux réseaux cloud centralisés et renforcent la sécurité, réduisent le problème du point de défaillance unique et permettent aux petites entreprises d’IA d’exploiter les ressources informatiques excédentaires.
1. Formation. L’entraînement des modèles d’IA est coûteux et intensif en termes de calcul. Le calcul d’entraînement décentralisé démocratise le développement de l’IA tout en augmentant la confidentialité et la sécurité, car les données sensibles peuvent être traitées localement sans contrôle centralisé.
BittensoretRéseau Golemsont des marchés décentralisés pour les ressources de formation en IA.Réseau AkashetPhalafournir des ressources informatiques décentralisées avec TEE.Réseau de rendua reconverti son réseau graphique GPU pour fournir des calculs pour les tâches d'IA.
2. Inférence. Le calcul de l'inférence fait référence aux ressources nécessaires aux modèles pour générer une nouvelle sortie ou aux applications et agents d'IA pour fonctionner. Les applications en temps réel qui traitent de gros volumes de données ou des agents nécessitant de multiples opérations utilisent une plus grande quantité de puissance de calcul de l'inférence.
Hyperbolique, Dfinity, et Hyperspaceoffre spécifiquement un calcul d'inférence. Les laboratoires d'inférenceOmron est une place de marché de vérification d’inférence et de calcul sur Bittensor. Les réseaux informatiques décentralisés tels que Bittensor, Golem Network, Akash Network, Phala et Render Network offrent à la fois des ressources de calcul d’entraînement et d’inférence.
3. Calcul de bord. Le calcul de bord implique le traitement des données localement sur des appareils distants tels que des smartphones, des appareils IoT ou des serveurs locaux. Le calcul de bord permet le traitement des données en temps réel et réduit la latence car le modèle et les données s'exécutent localement sur la même machine.
Réseau de dégradés est un réseau d’edge computing sur Solana. Réseau Edge, Réseau Theta, et AIOZpermettre le calcul en périphérie mondial.
La couche de vérification et de confidentialité garantit l'intégrité du système et la protection des données. Les mécanismes de consensus, les preuves de connaissance nulle (ZKP) et les TEE sont utilisés pour vérifier la formation du modèle, l'inférence et les sorties. Le FHE et les TEE sont utilisés pour garantir la confidentialité des données.
1. Calcul vérifiable. Le calcul vérifiable comprend l'entraînement et l'inférence du modèle.
Phala et Réseau Atomacombiner les TEE avec le calcul vérifiable.Inferiumutilise une combinaison de ZKPs et de TEEs pour l'inférence vérifiable.
2. Preuves de sortie. Les preuves de sortie vérifient que les sorties du modèle d'IA sont authentiques et n'ont pas été falsifiées sans révéler les paramètres du modèle. Les preuves de sortie offrent également une provenance et sont importantes pour faire confiance aux décisions de l'agent d'IA.
zkML et Réseau Aztec les deux ont des systèmes ZKP qui prouvent l’intégrité de la sortie de calcul. Huître de Marlinfournit une inférence AI vérifiable à travers un réseau de TEEs.
3. Confidentialité des données et du modèle. FHE et d’autres techniques cryptographiques permettent aux modèles de traiter des données chiffrées sans exposer d’informations sensibles. La confidentialité des données est nécessaire lors du traitement d’informations personnelles et sensibles et pour préserver l’anonymat.
Protocole Oasisfournit un calcul confidentiel via TEEs et un chiffrement des données.Partisia Blockchainutilise une Calcul de Parties Multiples (MPC) avancé pour garantir la confidentialité des données en IA.
La couche de coordination facilite l'interaction entre les différents composants de l'écosystème Web3 AI. Elle comprend des places de marché de modèles pour la distribution, l'infrastructure de formation et d'ajustement fin, et des réseaux d'agents pour la communication et la collaboration entre agents.
1. Réseaux modèles. Les réseaux de modèles sont conçus pour partager des ressources pour le développement de modèles d’IA.
2. Entraînement / Ajustement fin. Les réseaux de formation se spécialisent dans la distribution et la gestion des ensembles de données d'entraînement. Les réseaux de fine-tuning se concentrent sur des solutions d'infrastructure pour améliorer la connaissance externe du modèle grâce aux RAGs (Retrieval Augmented Generation) et aux APIs.
Bittensor, Akash Network et Golem Network proposent des réseaux de formation et d'ajustement fins.
3. Réseaux d’agents. Les réseaux d’agents fournissent deux services principaux aux agents d’IA : 1) des outils et 2) des rampes de lancement d’agents. Les outils incluent des connexions avec d’autres protocoles, des interfaces utilisateur standardisées et la communication avec des services externes. Les rampes de lancement de l’agent facilitent le déploiement et la gestion des agents d’IA.
Theoriqexploite des essaims d'agents pour alimenter des solutions de trading DeFi. Virtuals est la principale rampe de lancement d'agents IA sur Base.Eliza OSétait le premier réseau de modèle LLM open source. Réseau AlpagaetRéseau Olas sont des plateformes d’agents d’IA appartenant à la communauté.
La couche de services fournit le middleware et les outils essentiels dont les applications et agents d'IA ont besoin pour fonctionner efficacement. Cette couche comprend des outils de développement, des API pour l'intégration de données et d'applications externes, des systèmes de mémoire pour la rétention du contexte de l'agent, la génération augmentée par récupération (RAG) pour un accès amélioré aux connaissances, et une infrastructure de test.
La couche d'application se situe au sommet de la pile d'IA et représente les solutions destinées aux utilisateurs finaux. Cela inclut des agents qui résolvent des cas d'utilisation tels que la gestion de portefeuille, la sécurité, la productivité, les gains, les marchés de prédiction, les systèmes de gouvernance et les outils DeFAI.
Collectivement, ces applications contribuent à des écosystèmes d'IA sécurisés, transparents et décentralisés adaptés aux besoins de Web3.
L’évolution des systèmes d’IA Web2 vers Web3 représente un changement fondamental dans la façon dont nous abordons le développement et le déploiement de l’intelligence artificielle. Bien que l’infrastructure d’IA centralisée du Web2 ait été à l’origine d’une innovation considérable, elle est confrontée à des défis importants en matière de confidentialité des données, de transparence et de contrôle centralisé. La pile d’IA Web3 démontre comment les systèmes décentralisés peuvent remédier à ces limitations grâce à des DAO de données, des réseaux informatiques décentralisés et des systèmes de vérification sans confiance. Peut-être plus important encore, les incitations symboliques créent de nouveaux mécanismes de coordination qui peuvent aider à démarrer et à maintenir ces réseaux décentralisés.
En regardant vers l'avenir, la montée des agents d'IA représente la prochaine frontière de cette évolution. Comme nous l'explorerons dans le prochain article, les agents d'IA – des bots simples spécifiques à des tâches complexes aux systèmes autonomes – deviennent de plus en plus sophistiqués et capables. L'intégration de ces agents avec l'infrastructure Web3, combinée à une réflexion attentive sur l'architecture technique, les incitations économiques et les structures de gouvernance, a le potentiel de créer des systèmes plus équitables, transparents et efficaces que ce qui était possible à l'époque de Web2. Comprendre comment ces agents fonctionnent, leurs différents niveaux de complexité et la distinction entre les agents d'IA et une IA réellement agentic sera crucial pour quiconque travaille à l'intersection de l'IA et de Web3.
Dans notre précédent post, nous avons exploré le Histoire de la conception d'application. Dans la première partie de notre deuxième publication de la série Agentic AI, nous examinons le paysage actuel de l'IA Web2 et ses tendances, plateformes et technologies clés. Dans la deuxième partie, nous explorons comment la blockchain et la vérification sans confiance permettent l'évolution des agents d'IA en systèmes vraiment agentic.
Figure 1. Paysage de l'agent IA Web2 E2B.
Le paysage IA contemporain est principalement caractérisé par des plates-formes centralisées et des services contrôlés par les grandes entreprises technologiques. Des entreprises comme OpenAI, Anthropic, Google et Microsoft fournissent de grands modèles linguistiques (LLMs) et maintiennent une infrastructure cloud cruciale et des services API qui alimentent la plupart des agents IA.
Les récents progrès de l'infrastructure de l'IA ont fondamentalement transformé la façon dont les développeurs créent des agents IA. Au lieu de coder des interactions spécifiques, les développeurs peuvent maintenant utiliser le langage naturel pour définir les comportements et les objectifs des agents, ce qui conduit à des systèmes plus adaptables et sophistiqués.
Figure 2. Infrastructure de l'agent AI Segmentation.
Les avancées clés dans les domaines suivants ont conduit à une prolifération des agents d'IA :
figure_3_ai_business_models1920×1080 178 Ko
Graphique 3. Modèles d’affaires de l’IA.
Les entreprises traditionnelles d'IA Web2 emploient principalement des abonnements échelonnés et des services de conseil comme modèles économiques.
Les modèles d’affaires émergents pour les agents d’IA comprennent :
Alors que les systèmes d’IA Web2 actuels ont ouvert une nouvelle ère de technologie et d’efficacité, ils sont confrontés à plusieurs défis.
Les principales contraintes de l’IA Web2 (centralisation, propriété des données et transparence) sont résolues par la blockchain et la tokenisation. Le Web3 offre les solutions suivantes :
Les piles d'agents d'IA Web2 et Web3 partagent des composants de base tels que la coordination des modèles et des ressources, des outils et d'autres services, et des systèmes de mémoire pour la rétention du contexte. Cependant, l'incorporation des technologies blockchain par Web3 permet la décentralisation des ressources de calcul, des jetons pour inciter au partage de données et à la propriété des utilisateurs, une exécution sans confiance via des contrats intelligents, et des réseaux de coordination amorcés.
figure_4_web3_ai_agent_stack1920×3627 407 KB
Figure 4. Web3 Agent d'IA Stack.
La couche de données est le fondement de la pile d'agents d'IA Web3 et englobe tous les aspects des données. Elle comprend les sources de données, le suivi de la provenance et la vérification de l'authenticité, les systèmes d'étiquetage, les outils d'intelligence des données pour l'analyse et la recherche, et les solutions de stockage pour différents besoins de conservation des données.
La couche de calcul fournit l'infrastructure de traitement nécessaire pour exécuter les opérations d'IA. Les ressources de calcul peuvent être divisées en différentes catégories : infrastructure de formation pour le développement de modèles, systèmes d'inférence pour l'exécution de modèles et les opérations des agents, et le calcul en périphérie pour le traitement local décentralisé.
Les ressources informatiques distribuées éliminent la dépendance aux réseaux cloud centralisés et renforcent la sécurité, réduisent le problème du point de défaillance unique et permettent aux petites entreprises d’IA d’exploiter les ressources informatiques excédentaires.
1. Formation. L’entraînement des modèles d’IA est coûteux et intensif en termes de calcul. Le calcul d’entraînement décentralisé démocratise le développement de l’IA tout en augmentant la confidentialité et la sécurité, car les données sensibles peuvent être traitées localement sans contrôle centralisé.
BittensoretRéseau Golemsont des marchés décentralisés pour les ressources de formation en IA.Réseau AkashetPhalafournir des ressources informatiques décentralisées avec TEE.Réseau de rendua reconverti son réseau graphique GPU pour fournir des calculs pour les tâches d'IA.
2. Inférence. Le calcul de l'inférence fait référence aux ressources nécessaires aux modèles pour générer une nouvelle sortie ou aux applications et agents d'IA pour fonctionner. Les applications en temps réel qui traitent de gros volumes de données ou des agents nécessitant de multiples opérations utilisent une plus grande quantité de puissance de calcul de l'inférence.
Hyperbolique, Dfinity, et Hyperspaceoffre spécifiquement un calcul d'inférence. Les laboratoires d'inférenceOmron est une place de marché de vérification d’inférence et de calcul sur Bittensor. Les réseaux informatiques décentralisés tels que Bittensor, Golem Network, Akash Network, Phala et Render Network offrent à la fois des ressources de calcul d’entraînement et d’inférence.
3. Calcul de bord. Le calcul de bord implique le traitement des données localement sur des appareils distants tels que des smartphones, des appareils IoT ou des serveurs locaux. Le calcul de bord permet le traitement des données en temps réel et réduit la latence car le modèle et les données s'exécutent localement sur la même machine.
Réseau de dégradés est un réseau d’edge computing sur Solana. Réseau Edge, Réseau Theta, et AIOZpermettre le calcul en périphérie mondial.
La couche de vérification et de confidentialité garantit l'intégrité du système et la protection des données. Les mécanismes de consensus, les preuves de connaissance nulle (ZKP) et les TEE sont utilisés pour vérifier la formation du modèle, l'inférence et les sorties. Le FHE et les TEE sont utilisés pour garantir la confidentialité des données.
1. Calcul vérifiable. Le calcul vérifiable comprend l'entraînement et l'inférence du modèle.
Phala et Réseau Atomacombiner les TEE avec le calcul vérifiable.Inferiumutilise une combinaison de ZKPs et de TEEs pour l'inférence vérifiable.
2. Preuves de sortie. Les preuves de sortie vérifient que les sorties du modèle d'IA sont authentiques et n'ont pas été falsifiées sans révéler les paramètres du modèle. Les preuves de sortie offrent également une provenance et sont importantes pour faire confiance aux décisions de l'agent d'IA.
zkML et Réseau Aztec les deux ont des systèmes ZKP qui prouvent l’intégrité de la sortie de calcul. Huître de Marlinfournit une inférence AI vérifiable à travers un réseau de TEEs.
3. Confidentialité des données et du modèle. FHE et d’autres techniques cryptographiques permettent aux modèles de traiter des données chiffrées sans exposer d’informations sensibles. La confidentialité des données est nécessaire lors du traitement d’informations personnelles et sensibles et pour préserver l’anonymat.
Protocole Oasisfournit un calcul confidentiel via TEEs et un chiffrement des données.Partisia Blockchainutilise une Calcul de Parties Multiples (MPC) avancé pour garantir la confidentialité des données en IA.
La couche de coordination facilite l'interaction entre les différents composants de l'écosystème Web3 AI. Elle comprend des places de marché de modèles pour la distribution, l'infrastructure de formation et d'ajustement fin, et des réseaux d'agents pour la communication et la collaboration entre agents.
1. Réseaux modèles. Les réseaux de modèles sont conçus pour partager des ressources pour le développement de modèles d’IA.
2. Entraînement / Ajustement fin. Les réseaux de formation se spécialisent dans la distribution et la gestion des ensembles de données d'entraînement. Les réseaux de fine-tuning se concentrent sur des solutions d'infrastructure pour améliorer la connaissance externe du modèle grâce aux RAGs (Retrieval Augmented Generation) et aux APIs.
Bittensor, Akash Network et Golem Network proposent des réseaux de formation et d'ajustement fins.
3. Réseaux d’agents. Les réseaux d’agents fournissent deux services principaux aux agents d’IA : 1) des outils et 2) des rampes de lancement d’agents. Les outils incluent des connexions avec d’autres protocoles, des interfaces utilisateur standardisées et la communication avec des services externes. Les rampes de lancement de l’agent facilitent le déploiement et la gestion des agents d’IA.
Theoriqexploite des essaims d'agents pour alimenter des solutions de trading DeFi. Virtuals est la principale rampe de lancement d'agents IA sur Base.Eliza OSétait le premier réseau de modèle LLM open source. Réseau AlpagaetRéseau Olas sont des plateformes d’agents d’IA appartenant à la communauté.
La couche de services fournit le middleware et les outils essentiels dont les applications et agents d'IA ont besoin pour fonctionner efficacement. Cette couche comprend des outils de développement, des API pour l'intégration de données et d'applications externes, des systèmes de mémoire pour la rétention du contexte de l'agent, la génération augmentée par récupération (RAG) pour un accès amélioré aux connaissances, et une infrastructure de test.
La couche d'application se situe au sommet de la pile d'IA et représente les solutions destinées aux utilisateurs finaux. Cela inclut des agents qui résolvent des cas d'utilisation tels que la gestion de portefeuille, la sécurité, la productivité, les gains, les marchés de prédiction, les systèmes de gouvernance et les outils DeFAI.
Collectivement, ces applications contribuent à des écosystèmes d'IA sécurisés, transparents et décentralisés adaptés aux besoins de Web3.
L’évolution des systèmes d’IA Web2 vers Web3 représente un changement fondamental dans la façon dont nous abordons le développement et le déploiement de l’intelligence artificielle. Bien que l’infrastructure d’IA centralisée du Web2 ait été à l’origine d’une innovation considérable, elle est confrontée à des défis importants en matière de confidentialité des données, de transparence et de contrôle centralisé. La pile d’IA Web3 démontre comment les systèmes décentralisés peuvent remédier à ces limitations grâce à des DAO de données, des réseaux informatiques décentralisés et des systèmes de vérification sans confiance. Peut-être plus important encore, les incitations symboliques créent de nouveaux mécanismes de coordination qui peuvent aider à démarrer et à maintenir ces réseaux décentralisés.
En regardant vers l'avenir, la montée des agents d'IA représente la prochaine frontière de cette évolution. Comme nous l'explorerons dans le prochain article, les agents d'IA – des bots simples spécifiques à des tâches complexes aux systèmes autonomes – deviennent de plus en plus sophistiqués et capables. L'intégration de ces agents avec l'infrastructure Web3, combinée à une réflexion attentive sur l'architecture technique, les incitations économiques et les structures de gouvernance, a le potentiel de créer des systèmes plus équitables, transparents et efficaces que ce qui était possible à l'époque de Web2. Comprendre comment ces agents fonctionnent, leurs différents niveaux de complexité et la distinction entre les agents d'IA et une IA réellement agentic sera crucial pour quiconque travaille à l'intersection de l'IA et de Web3.