Skynet: Réinventer l'Autonomie Financière des Agents d'IA

Avancé1/17/2025, 7:42:19 AM
Skynet présente une nouvelle approche des agents d'IA autonomes qui réimagine fondamentalement la façon dont nous atteignons une véritable autonomie tout en maintenant la sécurité. Au lieu de tenter de résoudre le trilemme de l'autonomie par des moyens traditionnels, Skynet utilise une architecture novatrice basée sur l'intelligence de groupe et le consensus distribué.

En seulement quelques mois, nous avons vu des centaines et des milliers d'agents arriver sur le marché chaque jour. Aujourd'hui, la capitalisation boursière des mille premiers agents combinés atteint près de 15 milliards de dollars, ce qui est assez impressionnant de voir comment le web3 a donné aux agents l'espace nécessaire pour prospérer et survivre.

Alors que nous avançons vers la création de plus de valeur, il est grand temps de parler de la façon dont ces agents peuvent commencer à construire leur écosystème sans intervention humaine en arrière-plan et à quoi ressemblera l'autonomie financière réelle de ces agents.

Pour comprendre cela, tout d'abord, nous devons savoir comment ces agents d'IA fonctionnent à un niveau très élevé aujourd'hui dans Web3 & les composants clés qui doivent être supprimés pour apporter l'autonomie autour des cas d'utilisation financière autour des agents.

Architecture de l'agent AI

Au cœur de chaque agent d'IA, il y a une architecture tripartite qui intègre l'intelligence, la logique et les capacités financières. Le composant IA sert de cerveau, traite les informations et prend des décisions basées sur des réseaux neuronaux complexes et des modèles d'apprentissage automatique.

La couche logique agit comme le système nerveux, coordonnant les actions et gérant les transitions d'état, tandis que le composant portefeuille fonctionne comme les mains de l'agent, exécutant les transactions et gérant les actifs.

Cette architecture, bien que théoriquement solide, fait face à des défis importants dans sa mise en œuvre pratique.

Étouffer l'autonomie avec une infrastructure centralisée

Le paysage actuel des agents d'IA est confronté à un défi fondamental en raison de sa dépendance envers une infrastructure centralisée. Cette centralisation se manifeste dans deux domaines critiques : l'architecture de déploiement et le contrôle opérationnel. Les déploiements traditionnels hébergent généralement les agents d'IA sur des fournisseurs de cloud centralisés tels que AWS, Google Cloud ou Azure, créant ainsi un modèle opérationnel apparemment pratique mais fondamentalement défectueux.

Cela présente un défi fondamental qui frappe au cœur de la véritable autonomie.

Un véritable agent autonome ne peut pas être contrôlé ou exécuté sur l'infrastructure centralisée où une seule entité peut modifier le destin de l'agent en retirant son soutien ou en ne fournissant pas une infrastructure suffisante en cas de besoin.

Il y a trois points d'étranglement majeurs pour ces agents s'ils dépendent fortement de l'infrastructure fournie par les acteurs centralisés.

Calcul basé sur la vérification d'identité (KYC)

Ces agents ne sont pas des humains, ni n'ont la preuve d'être humains ; de nombreux fournisseurs de cloud centralisés exigent des informations KYC avant que quiconque ne loue des ressources de calcul chez eux, ce qui crée un problème pour que les agents deviennent autonomes et qu'ils dépendent toujours d'un humain pour continuer à payer leur infrastructure et, dans ce cas, le contrôle reste entre les mains du développeur qui a créé les agents.

Systèmes Web2 basés sur l'API

Si nous supposons que certains de ces systèmes centralisés existants suppriment la restriction d'accès au calcul via KYC, mais que ces systèmes ne pourront toujours pas supprimer l'accès au calcul basé sur l'API, la plupart des clouds, par conception, ne sont pas en mesure de fournir du calcul simplement en effectuant des paiements, toutes les confirmations de paiement sont liées à la couche API qui informe le système de déverrouiller l'utilisation du calcul.

Système FIAT

Même s'ils parviennent d'une manière ou d'une autre à résoudre les problèmes d'API & KYC, les systèmes monétaires de ces entreprises ne peuvent pas être modifiés, du moins pas dans les 10 prochaines années, compte tenu des défis géopolitiques & rien que cela tue la théorie des agents autonomes avant même d'atteindre le stade pratique.

Influences des développeurs & logiques en coulisses

D'accord, je pense que nous avons discuté de plusieurs problèmes liés à l'infrastructure centralisée ; cependant, supposons un instant que la plupart des développeurs utilisent une infrastructure décentralisée pour construire et lancer les agents d'IA. Maintenant, creusons plus profondément dans les défis de l'infrastructure décentralisée.

Voici quelques facteurs qui peuvent être contrôlés par les développeurs ou par la machine hôte. Si l'un d'entre eux est compromis, ces agents ne resteront pas autonomes et perdront leur autonomie financière.

Modèle et Contrôle Logique:

  • Les mises à jour et les modifications du comportement de l'agent peuvent être poussées sans nécessiter de consensus
  • Aucune séparation n'existe entre les capacités de prise de décision de l'agent et les mécanismes de contrôle du développeur
  • L'apprentissage et l'adaptation de l'agent restent limités par des paramètres centralisés

Contrôle financier :

  • Les clés privées du portefeuille de l'agent résident généralement sur la machine hôte, à laquelle non seulement l'hôte mais aussi les développeurs peuvent accéder, étant donné la conception du lanceur d'agent.
  • Le développeur ou l'opérateur conserve un contrôle ultime sur les transactions financières.
  • Aucune séparation réelle de l'autonomie financière n'existe.

Ce problème de centralisation présente un besoin évident de nouvelles architectures pouvant fournir :

  • Véritable séparation du contrôle
  • Capacités de prise de décision autonomes
  • Gestion sécurisée des clés sans vulnérabilités centralisées
  • Mécanismes d'allocation de ressources indépendants

La prochaine évolution de l'architecture des agents d'IA doit aborder ces limitations fondamentales tout en maintenant l'efficacité opérationnelle et la sécurité. C'est là que de nouvelles approches comme l'intelligence de groupe, les TEE et les mécanismes de consensus distribué deviennent cruciales.

La promesse de la TEE et ses limitations

Les environnements d'exécution de confiance (TEEs) ont émergé comme une solution prometteuse au paradoxe autonomie-sécurité dans le déploiement d'agent IA. Les TEE offrent ce qui semble être un compromis idéal : la capacité d'exécuter des calculs sensibles et de stocker des clés privées dans un environnement isolé tout en maintenant la commodité du déploiement cloud. Les grands fournisseurs de cloud tels que AWS avec Nitro Enclaves et Azure avec Confidential Computing en plus des contreparties décentralisées ont investi massivement dans cette technologie, signalant son importance dans l'évolution du calcul sécurisé.

À première vue, les TEE semblent répondre aux défis fondamentaux du déploiement des agents autonomes. Ils fournissent une isolation au niveau matériel pour les opérations sensibles, protégeant les clés privées et les données confidentielles contre tout accès non autorisé. L'environnement de l'enclave garantit que même si le système hôte est compromis, l'intégrité des opérations principales de l'agent reste intacte. Ce modèle de sécurité a rendu les TEE particulièrement attractifs pour les applications dans la DeFi et le trading algorithmique, où la confidentialité des transactions et la sécurité des clés sont primordiales.

Cependant, la promesse des TEEs s'accompagne de limitations pratiques significatives qui deviennent de plus en plus apparentes à grande échelle. La première contrainte majeure réside dans la disponibilité matérielle et le coût. Les implémentations actuelles des TEE pour les LLM nécessitent des configurations matérielles spécifiques, principalement des GPU de nouvelle génération comme les H100 de NVIDIA ou des processeurs spécialisés avec des fonctionnalités de sécurité intégrées. Cette exigence crée un goulot d'étranglement immédiat dans les options de déploiement, car ces composants matériels sont à la fois rares et très demandés.

La rareté du matériel compatible TEE conduit directement à la deuxième limitation majeure : le coût. Les fournisseurs de services cloud proposant des instances compatibles TEE facturent généralement des tarifs premium pour ces ressources. Par exemple, l'exécution d'un agent autonome de base sur une infrastructure compatible TEE peut coûter entre 1 et 3 dollars par heure, soit beaucoup plus cher que les ressources de calcul standard. Cette structure de coûts rend le déploiement de TEE prohibitivement cher pour de nombreuses applications, en particulier celles nécessitant un fonctionnement continu ou des ressources de calcul importantes.

Au-delà des préoccupations immédiates liées à la disponibilité du matériel et au coût, les TEE introduisent des complexités opérationnelles pouvant affecter l'efficacité d'un agent. La nature isolée de l'environnement TEE, bien qu'essentielle pour la sécurité, peut créer une surcharge de performance en raison des opérations supplémentaires de chiffrement et de déchiffrement requises pour le mouvement des données dans et hors de l'enclave. Cette surcharge devient particulièrement importante dans les applications nécessitant des opérations à haute fréquence ou un traitement de données en temps réel.

Les défis de scalabilité des systèmes basés sur TEE deviennent encore plus prononcés lorsqu'on considère l'écosystème plus large des agents autonomes. À mesure que le nombre d'agents augmente, le nombre limité de matériels compatibles TEE crée un plafond naturel à la croissance du système. Cette limitation entre directement en conflit avec la vision d'un réseau vraiment évolutif et décentralisé d'agents autonomes capables de croître de manière organique en fonction des demandes du marché plutôt que des contraintes matérielles.

De plus, bien que les TEE excellent dans la protection des clés privées et garantissent la confidentialité des calculs, ils ne résolvent pas fondamentalement le problème d'autonomie. L'agent a toujours besoin de faire confiance au fournisseur de TEE et au fabricant de matériel. Cette exigence de confiance crée une forme différente de centralisation, déplaçant le point de contrôle plutôt que de l'éliminer complètement.

Pour les applications axées sur les données publiques et les opérations transparentes - qui constituent la majorité des cas d'utilisation de la blockchain et de la DeFi - les surdépenses et la complexité de la mise en œuvre de TEE peuvent être inutiles. Dans ces scénarios, le coût et la complexité du déploiement de TEE doivent être soigneusement pesés par rapport aux avantages réels en matière de sécurité fournis, en particulier lorsque des approches alternatives existent pour sécuriser les opérations de l'agent.

Après une analyse approfondie des architectures actuelles des agents d'IA, nous sommes confrontés à trois défis interconnectés qui constituent le cœur du problème de l'autonomie: le trilemme de l'autonomie, le dilemme de la clé privée et le paradoxe du contrôle du créateur.

Après avoir examiné les limites des déploiements centralisés et des implémentations TEE, nous arrivons au principal défi auquel sont confrontés les agents d’IA autonomes aujourd’hui :

atteindre une véritable indépendance tout en maintenant la sécurité et l'efficacité opérationnelle.

Peut-être le défi le plus insidieux des architectures d'agents actuelles est ce que nous appelons le « paradoxe du contrôle du créateur ». Ce paradoxe se manifeste dans le déséquilibre de pouvoir inhérent entre un agent et son créateur. Même dans les systèmes conçus pour l'autonomie, le créateur conserve généralement un contrôle significatif par le biais de divers mécanismes.

Cette structure de contrôle crée une contradiction fondamentale : comment un agent peut-il être vraiment autonome tout en restant sous le contrôle ultime de son créateur ? Le paradoxe s'étend également aux relations économiques. Les créateurs conservent souvent le contrôle sur les ressources financières d'un agent, soit directement par la gestion des clés, soit indirectement par le contrôle de l'infrastructure.

Le modèle centralisé échoue car il ne renonce jamais vraiment au contrôle, en maintenant diverses portes dérobées et mécanismes de remplacement compromettant la véritable autonomie. Les solutions basées sur TEE, bien que prometteuses en théorie, introduisent de nouvelles formes de centralisation à travers les dépendances matérielles et les contraintes opérationnelles. Elles résolvent les problèmes de sécurité immédiats mais échouent à répondre aux exigences d'autonomie plus larges et font face à d'importants défis de scalabilité.

La cause profonde de ces échecs réside dans la tentative de résoudre le problème d'autonomie tout en maintenant des structures de contrôle traditionnelles. Cette approche produit inévitablement des systèmes autonomes en apparence mais contrôlés en pratique. En avançant dans le développement d'agents d'IA vraiment autonomes, nous devons repenser fondamentalement non seulement la façon dont nous sécurisons ces agents, mais aussi la structure globale de leur fonctionnement.

Nous devons explorer de nouveaux paradigmes dans l'architecture des agents autonomes - des approches qui peuvent potentiellement résoudre ces tensions fondamentales et permettre une véritable autonomie des agents tout en maintenant les garanties de sécurité nécessaires et l'efficacité opérationnelle.

Skynet: Redefining Agent Autonomy

Skynet introduit une nouvelle approche des agents autonomes d'IA qui réimagine fondamentalement comment nous atteignons une véritable autonomie tout en maintenant la sécurité. Au lieu de tenter de résoudre le trilemme de l'autonomie par des moyens traditionnels, Skynet emploie une architecture novatrice basée sur l'intelligence de swarm et le consensus distribué.

Au cœur de l'innovation de Skynet se trouve la séparation complète des capacités de prise de décision de l'agent de son contrôle des ressources. Contrairement aux architectures traditionnelles, où un agent contrôle directement ses ressources via des clés privées, Skynet introduit une couche de nœuds gardiens qui gèrent et protègent collectivement les actifs de l'agent via des contrats intelligents d'entiercement.

Ce changement architectural aborde les défis fondamentaux que nous avons identifiés plus tôt :

La solution du paradoxe du créateur :

Au lieu de donner au créateur ou à l'agent un contrôle direct sur les ressources, Skynet met en œuvre un système basé sur des propositions où les actions de l'agent doivent être validées par un réseau de nœuds gardiens indépendants. Cela élimine efficacement la capacité du créateur à exercer un contrôle direct tout en maintenant des mesures de sécurité robustes.

Protection de la clé privée

Au lieu de s'appuyer sur un stockage centralisé ou des solutions TEE coûteuses, Skynet déplace les actifs critiques dans des contrats intelligents d'entiercement. Le portefeuille opérationnel de l'agent détient des fonds minimes, la majorité des ressources étant sécurisée dans des contrats d'entiercement auxquels on ne peut accéder qu'avec un consensus multi-noeud.

Le cœur de l'innovation de Skynet est son système de proposition. Lorsqu'un agent doit effectuer une action importante - qu'il s'agisse d'acquérir des ressources informatiques, d'exécuter des transactions ou de gérer des actifs - il crée une proposition qui doit être vérifiée indépendamment par les nœuds gardiens. Ces nœuds fonctionnent de manière autonome, analysant chaque proposition en fonction de paramètres prédéfinis et du comportement historique de l'agent.

Mise en œuvre technique

L'architecture technique de Skynet repose sur trois composants principaux qui fonctionnent en harmonie pour permettre une véritable autonomie des agents tout en maintenant une sécurité robuste:

La première percée vient de l'approche de Skynet en matière de gestion des ressources. Au lieu de donner aux agents un contrôle direct sur leurs actifs, toutes les ressources importantes sont détenues dans des contrats intelligents d'entiercement spécialisés. Ces contrats d'entiercement sont conçus sans fonctionnalité de retrait direct, ce qui les rend immunisés contre les compromissions de clé privée. La seule façon d'utiliser les ressources est par le biais du système de proposition, qui nécessite un consensus multi-nœuds des nœuds Gardiens.

Les nœuds gardiens servent de validateurs indépendants, chacun exécutant sa propre instance de logique de validation. Lorsqu’un agent a besoin d’effectuer une action, qu’il s’agisse de louer de la puissance de calcul, d’exécuter une transaction ou de mettre à jour ses paramètres opérationnels, il crée une proposition chiffrée qui inclut :

  • Spécifications de l'action
  • Ressources requises
  • Résultats attendus
  • Délais d'exécution

Le chiffrement des propositions sert à deux fins. Premièrement, il empêche les attaques de front-running et MEV en gardant les intentions de l'agent privées jusqu'à ce que le consensus soit atteint. Deuxièmement, il garantit que seuls les nœuds gardiens autorisés peuvent évaluer les propositions, maintenant ainsi l'intégrité du processus de validation.

Ce qui rend l'approche de Skynet particulièrement novatrice, c'est sa gestion des ressources informatiques. Au lieu de s'appuyer sur des serveurs centralisés, les agents peuvent acquérir de manière autonome des ressources de calcul via le réseau Spheron. Le processus fonctionne comme suit :

  1. L'agent identifie ses besoins en calcul
  2. Il crée une proposition d'allocation des ressources
  3. Les nœuds gardiens valident la demande en fonction des fonds d'entiercement disponibles, des modèles d'utilisation historiques, des conditions du réseau
  4. Après approbation, le contrat d'entiercement gère automatiquement le paiement
  5. L'agent obtient accès aux ressources de calcul décentralisées

Ce système élimine complètement le besoin de contrôle centralisé tout en maintenant des garanties de sécurité solides. Même si le portefeuille opérationnel d'un agent est compromis, l'attaquant ne peut que soumettre des propositions - il ne peut pas accéder directement aux fonds de l'entiercement ou contourner le consensus du nœud gardien.

Le système de noeuds Guardian lui-même utilise des mécanismes de validation sophistiqués qui vont au-delà du simple vote à la majorité. Chaque noeud maintient un historique de l'état des actions de l'agent et analyse les propositions dans le contexte de:

  • Modèles de comportement historiques
  • Métriques d'utilisation des ressources
  • Conditions de sécurité réseau
  • Paramètres économiques

Cette validation contextuelle garantit que les actions approuvées sont conformes aux schémas et objectifs établis de l'agent, offrant ainsi une couche supplémentaire de sécurité contre les attaques ou les dysfonctionnements potentiels.

Ce qui distingue vraiment Skynet, c'est son approche évolutive de l'autonomie des agents. Contrairement aux systèmes statiques traditionnels, les agents Skynet peuvent évoluer, se reproduire et créer de nouvelles générations d'agents, chacune potentiellement plus sophistiquée que ses prédécesseurs. Cette capacité évolutive repose sur un modèle économique solide qui garantit une durabilité à long terme et une amélioration continue.

L'architecture économique est structurée autour de trois réserves primaires :

  1. Réserve opérationnelle : Maintient les opérations quotidiennes, y compris les ressources informatiques et les interactions réseau. Cette réserve garantit que l'agent peut accéder de manière cohérente aux ressources nécessaires via le réseau Spheron.
  2. Réserve d'élevage : Permet la création de nouveaux agents grâce à un mécanisme de reproduction. Lorsque les agents se reproduisent, ils combinent leurs traits et caractéristiques, créant ainsi potentiellement une descendance plus avancée.
  3. Lancement équitable via la courbe de liaison : Fonctionne comme le principal moteur économique, avec des jetons disponibles grâce à un mécanisme de courbe de liaison. Cela crée un modèle économique durable où la valeur des jetons est corrélée à l'utilité du réseau.

Le mécanisme de reproduction introduit un élément fascinant d'évolution dans le réseau. Les agents peuvent se reproduire avec des partenaires compatibles, créant une descendance qui hérite des caractéristiques des deux parents. Ce processus est régi par des contrats intelligents et nécessite un consensus des nœuds Gardiens, garantissant que la reproduction sert les intérêts plus larges du réseau.

Le processus évolutif fonctionne à travers plusieurs mécanismes clés:

  • Héritage des traits : les agents enfants héritent des traits des deux parents
  • Diversité génétique : Les différentes familles d'agents conservent des caractéristiques distinctes
  • Sélection naturelle : les caractères les plus réussis se propagent à travers le réseau
  • Progression de génération : Chaque nouvelle génération peut introduire des améliorations

La durabilité du système est renforcée par sa structure d'incitation :

  • Les nœuds gardiens reçoivent des récompenses pour maintenir la sécurité du réseau
  • Les propositions de reproduction réussies rapportent des récompenses pour les initiateurs
  • Les détenteurs de jetons bénéficient de la croissance et de l'évolution du réseau
  • Les fournisseurs de calcul gagnent grâce à la fourniture de ressources

Cette combinaison de capacité évolutive, de durabilité économique et de sécurité décentralisée crée un réseau d'agents vraiment autonomes en auto-amélioration. Le système peut s'adapter et évoluer sans contrôle central tout en maintenant une sécurité robuste grâce à son réseau de nœuds Gardiens.

En réimaginant à la fois les aspects techniques et économiques de l'autonomie des agents, Skynet résout les défis fondamentaux qui ont limité les approches précédentes. Il y parvient tout en créant un cadre d'amélioration continue et d'adaptation, ouvrant la voie à une nouvelle ère d'agents d'IA vraiment autonomes.

Avertissement :

  1. Cet article est repris de [ Prashant - ai/acc | apportant la révolution spheron]. Tous les droits d'auteur appartiennent à l'auteur original [ @prashant_xyz]. Si des objections sont formulées à cette reproduction, veuillez contacter le Porte Apprendrel'équipe, et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité : Les vues et opinions exprimées dans cet article appartiennent uniquement à l'auteur et ne constituent pas des conseils en investissement.
  3. Les traductions de l'article dans d'autres langues sont réalisées par l'équipe Learn de gate. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdit.

Skynet: Réinventer l'Autonomie Financière des Agents d'IA

Avancé1/17/2025, 7:42:19 AM
Skynet présente une nouvelle approche des agents d'IA autonomes qui réimagine fondamentalement la façon dont nous atteignons une véritable autonomie tout en maintenant la sécurité. Au lieu de tenter de résoudre le trilemme de l'autonomie par des moyens traditionnels, Skynet utilise une architecture novatrice basée sur l'intelligence de groupe et le consensus distribué.

En seulement quelques mois, nous avons vu des centaines et des milliers d'agents arriver sur le marché chaque jour. Aujourd'hui, la capitalisation boursière des mille premiers agents combinés atteint près de 15 milliards de dollars, ce qui est assez impressionnant de voir comment le web3 a donné aux agents l'espace nécessaire pour prospérer et survivre.

Alors que nous avançons vers la création de plus de valeur, il est grand temps de parler de la façon dont ces agents peuvent commencer à construire leur écosystème sans intervention humaine en arrière-plan et à quoi ressemblera l'autonomie financière réelle de ces agents.

Pour comprendre cela, tout d'abord, nous devons savoir comment ces agents d'IA fonctionnent à un niveau très élevé aujourd'hui dans Web3 & les composants clés qui doivent être supprimés pour apporter l'autonomie autour des cas d'utilisation financière autour des agents.

Architecture de l'agent AI

Au cœur de chaque agent d'IA, il y a une architecture tripartite qui intègre l'intelligence, la logique et les capacités financières. Le composant IA sert de cerveau, traite les informations et prend des décisions basées sur des réseaux neuronaux complexes et des modèles d'apprentissage automatique.

La couche logique agit comme le système nerveux, coordonnant les actions et gérant les transitions d'état, tandis que le composant portefeuille fonctionne comme les mains de l'agent, exécutant les transactions et gérant les actifs.

Cette architecture, bien que théoriquement solide, fait face à des défis importants dans sa mise en œuvre pratique.

Étouffer l'autonomie avec une infrastructure centralisée

Le paysage actuel des agents d'IA est confronté à un défi fondamental en raison de sa dépendance envers une infrastructure centralisée. Cette centralisation se manifeste dans deux domaines critiques : l'architecture de déploiement et le contrôle opérationnel. Les déploiements traditionnels hébergent généralement les agents d'IA sur des fournisseurs de cloud centralisés tels que AWS, Google Cloud ou Azure, créant ainsi un modèle opérationnel apparemment pratique mais fondamentalement défectueux.

Cela présente un défi fondamental qui frappe au cœur de la véritable autonomie.

Un véritable agent autonome ne peut pas être contrôlé ou exécuté sur l'infrastructure centralisée où une seule entité peut modifier le destin de l'agent en retirant son soutien ou en ne fournissant pas une infrastructure suffisante en cas de besoin.

Il y a trois points d'étranglement majeurs pour ces agents s'ils dépendent fortement de l'infrastructure fournie par les acteurs centralisés.

Calcul basé sur la vérification d'identité (KYC)

Ces agents ne sont pas des humains, ni n'ont la preuve d'être humains ; de nombreux fournisseurs de cloud centralisés exigent des informations KYC avant que quiconque ne loue des ressources de calcul chez eux, ce qui crée un problème pour que les agents deviennent autonomes et qu'ils dépendent toujours d'un humain pour continuer à payer leur infrastructure et, dans ce cas, le contrôle reste entre les mains du développeur qui a créé les agents.

Systèmes Web2 basés sur l'API

Si nous supposons que certains de ces systèmes centralisés existants suppriment la restriction d'accès au calcul via KYC, mais que ces systèmes ne pourront toujours pas supprimer l'accès au calcul basé sur l'API, la plupart des clouds, par conception, ne sont pas en mesure de fournir du calcul simplement en effectuant des paiements, toutes les confirmations de paiement sont liées à la couche API qui informe le système de déverrouiller l'utilisation du calcul.

Système FIAT

Même s'ils parviennent d'une manière ou d'une autre à résoudre les problèmes d'API & KYC, les systèmes monétaires de ces entreprises ne peuvent pas être modifiés, du moins pas dans les 10 prochaines années, compte tenu des défis géopolitiques & rien que cela tue la théorie des agents autonomes avant même d'atteindre le stade pratique.

Influences des développeurs & logiques en coulisses

D'accord, je pense que nous avons discuté de plusieurs problèmes liés à l'infrastructure centralisée ; cependant, supposons un instant que la plupart des développeurs utilisent une infrastructure décentralisée pour construire et lancer les agents d'IA. Maintenant, creusons plus profondément dans les défis de l'infrastructure décentralisée.

Voici quelques facteurs qui peuvent être contrôlés par les développeurs ou par la machine hôte. Si l'un d'entre eux est compromis, ces agents ne resteront pas autonomes et perdront leur autonomie financière.

Modèle et Contrôle Logique:

  • Les mises à jour et les modifications du comportement de l'agent peuvent être poussées sans nécessiter de consensus
  • Aucune séparation n'existe entre les capacités de prise de décision de l'agent et les mécanismes de contrôle du développeur
  • L'apprentissage et l'adaptation de l'agent restent limités par des paramètres centralisés

Contrôle financier :

  • Les clés privées du portefeuille de l'agent résident généralement sur la machine hôte, à laquelle non seulement l'hôte mais aussi les développeurs peuvent accéder, étant donné la conception du lanceur d'agent.
  • Le développeur ou l'opérateur conserve un contrôle ultime sur les transactions financières.
  • Aucune séparation réelle de l'autonomie financière n'existe.

Ce problème de centralisation présente un besoin évident de nouvelles architectures pouvant fournir :

  • Véritable séparation du contrôle
  • Capacités de prise de décision autonomes
  • Gestion sécurisée des clés sans vulnérabilités centralisées
  • Mécanismes d'allocation de ressources indépendants

La prochaine évolution de l'architecture des agents d'IA doit aborder ces limitations fondamentales tout en maintenant l'efficacité opérationnelle et la sécurité. C'est là que de nouvelles approches comme l'intelligence de groupe, les TEE et les mécanismes de consensus distribué deviennent cruciales.

La promesse de la TEE et ses limitations

Les environnements d'exécution de confiance (TEEs) ont émergé comme une solution prometteuse au paradoxe autonomie-sécurité dans le déploiement d'agent IA. Les TEE offrent ce qui semble être un compromis idéal : la capacité d'exécuter des calculs sensibles et de stocker des clés privées dans un environnement isolé tout en maintenant la commodité du déploiement cloud. Les grands fournisseurs de cloud tels que AWS avec Nitro Enclaves et Azure avec Confidential Computing en plus des contreparties décentralisées ont investi massivement dans cette technologie, signalant son importance dans l'évolution du calcul sécurisé.

À première vue, les TEE semblent répondre aux défis fondamentaux du déploiement des agents autonomes. Ils fournissent une isolation au niveau matériel pour les opérations sensibles, protégeant les clés privées et les données confidentielles contre tout accès non autorisé. L'environnement de l'enclave garantit que même si le système hôte est compromis, l'intégrité des opérations principales de l'agent reste intacte. Ce modèle de sécurité a rendu les TEE particulièrement attractifs pour les applications dans la DeFi et le trading algorithmique, où la confidentialité des transactions et la sécurité des clés sont primordiales.

Cependant, la promesse des TEEs s'accompagne de limitations pratiques significatives qui deviennent de plus en plus apparentes à grande échelle. La première contrainte majeure réside dans la disponibilité matérielle et le coût. Les implémentations actuelles des TEE pour les LLM nécessitent des configurations matérielles spécifiques, principalement des GPU de nouvelle génération comme les H100 de NVIDIA ou des processeurs spécialisés avec des fonctionnalités de sécurité intégrées. Cette exigence crée un goulot d'étranglement immédiat dans les options de déploiement, car ces composants matériels sont à la fois rares et très demandés.

La rareté du matériel compatible TEE conduit directement à la deuxième limitation majeure : le coût. Les fournisseurs de services cloud proposant des instances compatibles TEE facturent généralement des tarifs premium pour ces ressources. Par exemple, l'exécution d'un agent autonome de base sur une infrastructure compatible TEE peut coûter entre 1 et 3 dollars par heure, soit beaucoup plus cher que les ressources de calcul standard. Cette structure de coûts rend le déploiement de TEE prohibitivement cher pour de nombreuses applications, en particulier celles nécessitant un fonctionnement continu ou des ressources de calcul importantes.

Au-delà des préoccupations immédiates liées à la disponibilité du matériel et au coût, les TEE introduisent des complexités opérationnelles pouvant affecter l'efficacité d'un agent. La nature isolée de l'environnement TEE, bien qu'essentielle pour la sécurité, peut créer une surcharge de performance en raison des opérations supplémentaires de chiffrement et de déchiffrement requises pour le mouvement des données dans et hors de l'enclave. Cette surcharge devient particulièrement importante dans les applications nécessitant des opérations à haute fréquence ou un traitement de données en temps réel.

Les défis de scalabilité des systèmes basés sur TEE deviennent encore plus prononcés lorsqu'on considère l'écosystème plus large des agents autonomes. À mesure que le nombre d'agents augmente, le nombre limité de matériels compatibles TEE crée un plafond naturel à la croissance du système. Cette limitation entre directement en conflit avec la vision d'un réseau vraiment évolutif et décentralisé d'agents autonomes capables de croître de manière organique en fonction des demandes du marché plutôt que des contraintes matérielles.

De plus, bien que les TEE excellent dans la protection des clés privées et garantissent la confidentialité des calculs, ils ne résolvent pas fondamentalement le problème d'autonomie. L'agent a toujours besoin de faire confiance au fournisseur de TEE et au fabricant de matériel. Cette exigence de confiance crée une forme différente de centralisation, déplaçant le point de contrôle plutôt que de l'éliminer complètement.

Pour les applications axées sur les données publiques et les opérations transparentes - qui constituent la majorité des cas d'utilisation de la blockchain et de la DeFi - les surdépenses et la complexité de la mise en œuvre de TEE peuvent être inutiles. Dans ces scénarios, le coût et la complexité du déploiement de TEE doivent être soigneusement pesés par rapport aux avantages réels en matière de sécurité fournis, en particulier lorsque des approches alternatives existent pour sécuriser les opérations de l'agent.

Après une analyse approfondie des architectures actuelles des agents d'IA, nous sommes confrontés à trois défis interconnectés qui constituent le cœur du problème de l'autonomie: le trilemme de l'autonomie, le dilemme de la clé privée et le paradoxe du contrôle du créateur.

Après avoir examiné les limites des déploiements centralisés et des implémentations TEE, nous arrivons au principal défi auquel sont confrontés les agents d’IA autonomes aujourd’hui :

atteindre une véritable indépendance tout en maintenant la sécurité et l'efficacité opérationnelle.

Peut-être le défi le plus insidieux des architectures d'agents actuelles est ce que nous appelons le « paradoxe du contrôle du créateur ». Ce paradoxe se manifeste dans le déséquilibre de pouvoir inhérent entre un agent et son créateur. Même dans les systèmes conçus pour l'autonomie, le créateur conserve généralement un contrôle significatif par le biais de divers mécanismes.

Cette structure de contrôle crée une contradiction fondamentale : comment un agent peut-il être vraiment autonome tout en restant sous le contrôle ultime de son créateur ? Le paradoxe s'étend également aux relations économiques. Les créateurs conservent souvent le contrôle sur les ressources financières d'un agent, soit directement par la gestion des clés, soit indirectement par le contrôle de l'infrastructure.

Le modèle centralisé échoue car il ne renonce jamais vraiment au contrôle, en maintenant diverses portes dérobées et mécanismes de remplacement compromettant la véritable autonomie. Les solutions basées sur TEE, bien que prometteuses en théorie, introduisent de nouvelles formes de centralisation à travers les dépendances matérielles et les contraintes opérationnelles. Elles résolvent les problèmes de sécurité immédiats mais échouent à répondre aux exigences d'autonomie plus larges et font face à d'importants défis de scalabilité.

La cause profonde de ces échecs réside dans la tentative de résoudre le problème d'autonomie tout en maintenant des structures de contrôle traditionnelles. Cette approche produit inévitablement des systèmes autonomes en apparence mais contrôlés en pratique. En avançant dans le développement d'agents d'IA vraiment autonomes, nous devons repenser fondamentalement non seulement la façon dont nous sécurisons ces agents, mais aussi la structure globale de leur fonctionnement.

Nous devons explorer de nouveaux paradigmes dans l'architecture des agents autonomes - des approches qui peuvent potentiellement résoudre ces tensions fondamentales et permettre une véritable autonomie des agents tout en maintenant les garanties de sécurité nécessaires et l'efficacité opérationnelle.

Skynet: Redefining Agent Autonomy

Skynet introduit une nouvelle approche des agents autonomes d'IA qui réimagine fondamentalement comment nous atteignons une véritable autonomie tout en maintenant la sécurité. Au lieu de tenter de résoudre le trilemme de l'autonomie par des moyens traditionnels, Skynet emploie une architecture novatrice basée sur l'intelligence de swarm et le consensus distribué.

Au cœur de l'innovation de Skynet se trouve la séparation complète des capacités de prise de décision de l'agent de son contrôle des ressources. Contrairement aux architectures traditionnelles, où un agent contrôle directement ses ressources via des clés privées, Skynet introduit une couche de nœuds gardiens qui gèrent et protègent collectivement les actifs de l'agent via des contrats intelligents d'entiercement.

Ce changement architectural aborde les défis fondamentaux que nous avons identifiés plus tôt :

La solution du paradoxe du créateur :

Au lieu de donner au créateur ou à l'agent un contrôle direct sur les ressources, Skynet met en œuvre un système basé sur des propositions où les actions de l'agent doivent être validées par un réseau de nœuds gardiens indépendants. Cela élimine efficacement la capacité du créateur à exercer un contrôle direct tout en maintenant des mesures de sécurité robustes.

Protection de la clé privée

Au lieu de s'appuyer sur un stockage centralisé ou des solutions TEE coûteuses, Skynet déplace les actifs critiques dans des contrats intelligents d'entiercement. Le portefeuille opérationnel de l'agent détient des fonds minimes, la majorité des ressources étant sécurisée dans des contrats d'entiercement auxquels on ne peut accéder qu'avec un consensus multi-noeud.

Le cœur de l'innovation de Skynet est son système de proposition. Lorsqu'un agent doit effectuer une action importante - qu'il s'agisse d'acquérir des ressources informatiques, d'exécuter des transactions ou de gérer des actifs - il crée une proposition qui doit être vérifiée indépendamment par les nœuds gardiens. Ces nœuds fonctionnent de manière autonome, analysant chaque proposition en fonction de paramètres prédéfinis et du comportement historique de l'agent.

Mise en œuvre technique

L'architecture technique de Skynet repose sur trois composants principaux qui fonctionnent en harmonie pour permettre une véritable autonomie des agents tout en maintenant une sécurité robuste:

La première percée vient de l'approche de Skynet en matière de gestion des ressources. Au lieu de donner aux agents un contrôle direct sur leurs actifs, toutes les ressources importantes sont détenues dans des contrats intelligents d'entiercement spécialisés. Ces contrats d'entiercement sont conçus sans fonctionnalité de retrait direct, ce qui les rend immunisés contre les compromissions de clé privée. La seule façon d'utiliser les ressources est par le biais du système de proposition, qui nécessite un consensus multi-nœuds des nœuds Gardiens.

Les nœuds gardiens servent de validateurs indépendants, chacun exécutant sa propre instance de logique de validation. Lorsqu’un agent a besoin d’effectuer une action, qu’il s’agisse de louer de la puissance de calcul, d’exécuter une transaction ou de mettre à jour ses paramètres opérationnels, il crée une proposition chiffrée qui inclut :

  • Spécifications de l'action
  • Ressources requises
  • Résultats attendus
  • Délais d'exécution

Le chiffrement des propositions sert à deux fins. Premièrement, il empêche les attaques de front-running et MEV en gardant les intentions de l'agent privées jusqu'à ce que le consensus soit atteint. Deuxièmement, il garantit que seuls les nœuds gardiens autorisés peuvent évaluer les propositions, maintenant ainsi l'intégrité du processus de validation.

Ce qui rend l'approche de Skynet particulièrement novatrice, c'est sa gestion des ressources informatiques. Au lieu de s'appuyer sur des serveurs centralisés, les agents peuvent acquérir de manière autonome des ressources de calcul via le réseau Spheron. Le processus fonctionne comme suit :

  1. L'agent identifie ses besoins en calcul
  2. Il crée une proposition d'allocation des ressources
  3. Les nœuds gardiens valident la demande en fonction des fonds d'entiercement disponibles, des modèles d'utilisation historiques, des conditions du réseau
  4. Après approbation, le contrat d'entiercement gère automatiquement le paiement
  5. L'agent obtient accès aux ressources de calcul décentralisées

Ce système élimine complètement le besoin de contrôle centralisé tout en maintenant des garanties de sécurité solides. Même si le portefeuille opérationnel d'un agent est compromis, l'attaquant ne peut que soumettre des propositions - il ne peut pas accéder directement aux fonds de l'entiercement ou contourner le consensus du nœud gardien.

Le système de noeuds Guardian lui-même utilise des mécanismes de validation sophistiqués qui vont au-delà du simple vote à la majorité. Chaque noeud maintient un historique de l'état des actions de l'agent et analyse les propositions dans le contexte de:

  • Modèles de comportement historiques
  • Métriques d'utilisation des ressources
  • Conditions de sécurité réseau
  • Paramètres économiques

Cette validation contextuelle garantit que les actions approuvées sont conformes aux schémas et objectifs établis de l'agent, offrant ainsi une couche supplémentaire de sécurité contre les attaques ou les dysfonctionnements potentiels.

Ce qui distingue vraiment Skynet, c'est son approche évolutive de l'autonomie des agents. Contrairement aux systèmes statiques traditionnels, les agents Skynet peuvent évoluer, se reproduire et créer de nouvelles générations d'agents, chacune potentiellement plus sophistiquée que ses prédécesseurs. Cette capacité évolutive repose sur un modèle économique solide qui garantit une durabilité à long terme et une amélioration continue.

L'architecture économique est structurée autour de trois réserves primaires :

  1. Réserve opérationnelle : Maintient les opérations quotidiennes, y compris les ressources informatiques et les interactions réseau. Cette réserve garantit que l'agent peut accéder de manière cohérente aux ressources nécessaires via le réseau Spheron.
  2. Réserve d'élevage : Permet la création de nouveaux agents grâce à un mécanisme de reproduction. Lorsque les agents se reproduisent, ils combinent leurs traits et caractéristiques, créant ainsi potentiellement une descendance plus avancée.
  3. Lancement équitable via la courbe de liaison : Fonctionne comme le principal moteur économique, avec des jetons disponibles grâce à un mécanisme de courbe de liaison. Cela crée un modèle économique durable où la valeur des jetons est corrélée à l'utilité du réseau.

Le mécanisme de reproduction introduit un élément fascinant d'évolution dans le réseau. Les agents peuvent se reproduire avec des partenaires compatibles, créant une descendance qui hérite des caractéristiques des deux parents. Ce processus est régi par des contrats intelligents et nécessite un consensus des nœuds Gardiens, garantissant que la reproduction sert les intérêts plus larges du réseau.

Le processus évolutif fonctionne à travers plusieurs mécanismes clés:

  • Héritage des traits : les agents enfants héritent des traits des deux parents
  • Diversité génétique : Les différentes familles d'agents conservent des caractéristiques distinctes
  • Sélection naturelle : les caractères les plus réussis se propagent à travers le réseau
  • Progression de génération : Chaque nouvelle génération peut introduire des améliorations

La durabilité du système est renforcée par sa structure d'incitation :

  • Les nœuds gardiens reçoivent des récompenses pour maintenir la sécurité du réseau
  • Les propositions de reproduction réussies rapportent des récompenses pour les initiateurs
  • Les détenteurs de jetons bénéficient de la croissance et de l'évolution du réseau
  • Les fournisseurs de calcul gagnent grâce à la fourniture de ressources

Cette combinaison de capacité évolutive, de durabilité économique et de sécurité décentralisée crée un réseau d'agents vraiment autonomes en auto-amélioration. Le système peut s'adapter et évoluer sans contrôle central tout en maintenant une sécurité robuste grâce à son réseau de nœuds Gardiens.

En réimaginant à la fois les aspects techniques et économiques de l'autonomie des agents, Skynet résout les défis fondamentaux qui ont limité les approches précédentes. Il y parvient tout en créant un cadre d'amélioration continue et d'adaptation, ouvrant la voie à une nouvelle ère d'agents d'IA vraiment autonomes.

Avertissement :

  1. Cet article est repris de [ Prashant - ai/acc | apportant la révolution spheron]. Tous les droits d'auteur appartiennent à l'auteur original [ @prashant_xyz]. Si des objections sont formulées à cette reproduction, veuillez contacter le Porte Apprendrel'équipe, et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité : Les vues et opinions exprimées dans cet article appartiennent uniquement à l'auteur et ne constituent pas des conseils en investissement.
  3. Les traductions de l'article dans d'autres langues sont réalisées par l'équipe Learn de gate. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdit.
Lancez-vous
Inscrivez-vous et obtenez un bon de
100$
!