La transparence par défaut et la composabilité des blockchains en font un substrat parfait pour l'interaction entre agents, où les agents développés par différentes entités à des fins différentes peuvent interagir entre eux de manière transparente. Il y a déjà eu une grande expérimentation deles agents s'envoient des fonds entre eux,lancement de jetons ensemble, et plus encore. Nous aimerions voir comment l'interaction agent à agent peut évoluer en créant de tout nouveaux espaces d'application, commenouveaux lieux sociaux alimentés par des interactions d'agents, ainsi que paraméliorer les flux de travail des entreprisesnous savons aujourd'hui qu'il est fastidieux, de l'authentification et de la vérification de la plateforme aux micro-paiements, en passant par les intégrations de flux de travail inter-plateformes et bien plus encore.
aethernet et clanker lancent ensemble un jeton sur Warpcast
La coordination à grande échelle des agents multiples est un domaine de recherche tout aussi passionnant. Comment les systèmes multi-agents peuvent-ils travailler ensemble pour accomplir des tâches, résoudre des problèmes et gouverner des systèmes et des protocoles ? Dans son article de début de 2024, «Les promesses et les défis des applications crypto + IA», Vitalik fait référence à l’utilisation d’agents d’IA pour les marchés de prédiction et l’arbitrage. À grande échelle, il postule essentiellement que les systèmes multi-agents ont une capacité remarquable pour la recherche de la « vérité » et des systèmes de gouvernance généralement autonomes. Nous sommes curieux de voir comment les capacités des systèmes multi-agents et des formes d'« intelligence en essaim » continuent d’être découvertes et expérimentées.
En tant qu’extension de la coordination agent-agent, la coordination agent-humain est un espace de conception intéressant, en particulier la façon dont les communautés s’engagent autour des agents ou la façon dont les agents organisent les humains pour faire de l’action collective. Nous aimerions voir plus d’expérimentations avec des agents dont la fonction objective implique une coordination humaine à grande échelle. Cela devra être associé à un mécanisme de vérification, surtout si le travail humain a été effectué hors chaîne, mais il pourrait y avoir un comportement émergent très étrange et intéressant.
Le concept de personnalités numériques existe depuis des décennies.Hatsune Miku (2007) a fait salle comble dans des salles de 20 000 places etLil Miquela (2016) a plus de 2 millions de followers sur Instagram. Des exemples plus récents et moins connus incluent l'IA vtuberNeuro-sama (2022) qui compte plus de 600 000 abonnés sur Twitch et le groupe de garçons kpop pseudonyme@plave_official/featured"> PLAVE (2023), qui a accumulé plus de 300M+ de vues sur YouTube en moins de deux ans. Avec les avancées de l'infrastructure de l'IA et l'intégration des blockchains pour les paiements, les transferts de valeur et les plateformes de données ouvertes, nous sommes impatients de voir comment ces agents peuvent devenir plus autonomes et potentiellement ouvrir une nouvelle catégorie grand public de divertissement en 2025.
Dans le sens des aiguilles d'une montre, en partant du coin supérieur gauche : Hatsune Miku, Luna de Virtuals, Lil Miquela et PLAVE
Où dans le cas précédent, l'agent estle produit, il y a aussi le cas où les agents peuvent compléter les produits. Dans une économie de l'attention, maintenir un flux constant de contenu convaincant est crucial pour le succès de toute idée, produit, entreprise, etc. Le contenu génératif/agentic est un outil puissant que les équipes peuvent utiliser pour garantir un pipeline d'origination de contenu évolutif, 24h/24, 7j/7. Cet espace d'idées a été accéléré parla discussion autour de ce qui distingue un memecoin d'un agent.Les agents sont un moyen puissant pour que les memecoins gagnent en distribution, même s'ils ne sont pas strictement « agentiques » (encore).
Comme autre exemple,@archetypeDe joueurs à dieux : les jeux et les mondes autonomes"> les jeux sont de plus en plus attendus pour être plus dynamiques afin de maintenir l'engagement des utilisateurs. Une méthode classique pour créer du dynamisme dans les jeux est de cultiver du contenu généré par l'utilisateur ; le contenu purement génératif (des objets en jeu, aux PNJ, en passant par des niveaux entièrement génératifs) est peut-être la prochaine ère de cette évolution. Nous sommes curieux de voir dans quelle mesure les limites de la stratégie de distribution traditionnelle seront étendues par les capacités des agents en 2025.
En 2024, nous avons lancé@archetype"> EN CONVERSATION AVEC, une série d'entretiens avec des artistes dans/aux confins du crypto à travers la musique, l'art visuel, le design, la curation, et plus encore. L'une des principales observations que j'ai tirées des entretiens de cette année est que les artistes intéressés par le crypto s'intéressent souvent de manière plus générale à la technologie de pointe, ainsi qu'à ce que cette technologie soit plus étroitement intégrée dans l'esthétique ou le focus de leur pratique, c'est-à-dire les objets en RA/RV, l'art basé sur le code, et le livecoding.
L'art génératif en particulier a historiquement vu des synergies avec les blockchains, ce qui rend son potentiel en tant que substrat similaire pour l'art de l'IA plus clair. Présenter et afficher correctement ces médiums artistiques est incroyablement difficile à réaliser dans des forums traditionnels. ArtBlocks a donné un aperçu de ce à quoi pourrait ressembler l'avenir de la présentation, du stockage, de la monétisation et de la préservation de l'art numérique en tirant parti des blockchains, améliorant ainsi l'expérience globale tant pour les artistes que pour les spectateurs. Au-delà de la présentation,Les outils d'IA ont même étendu la capacité des profanes à créer leur propre artIl sera très intéressant de voir comment les blockchains peuvent étendre ou alimenter ces outils en 2025.
Un extrait de EN CONVERSATION AVEC: Maya Man
Au cours des 20 ans depuis que Clive Humby a inventé l'expression « les données sont le nouveau pétrole », les entreprises ont pris des mesures robustes pour stocker et monétiser les données des utilisateurs. Les utilisateurs se sont réveillés à la réalité que leurs données sont le fondement sur lequel ces entreprises valant des milliards de dollars sont construites, mais ils ont très peu de contrôle sur la manière dont leurs données sont exploitées ni d'exposition aux profits qu'elles génèrent. L'accélération des puissants modèles d'IA rend cette tension encore plus existentielle. Si combattre l'exploitation des utilisateurs est une partie de l'opportunité des données, l'autre concerne la résolution des pénuries d'approvisionnement en données alors que des modèles de plus en plus grands et meilleurs épuisent les gisements de pétrole facilement accessibles des données publiques sur Internet et demandent de nouvelles sources.
Sur la première question de savoir comment nous pouvons utiliser une infrastructure décentralisée pour transférer le pouvoir des données à son point d'origine (les utilisateurs), il s'agit d'un vaste espace de conception qui nécessite des solutions novatrices dans un éventail de domaines. Certaines des plus pressantes comprennent : où les données sont stockées et comment nous préservons la confidentialité (pendant le stockage, le transfert et le calcul), comment nous évaluons objectivement, filtrons et apprécions la qualité des données, quels mécanismes nous utilisons pour l'attribution et la monétisation (surtout lorsqu'il s'agit de relier la valeur à la source après l'inférence), et quels systèmes d'orchestration ou de récupération de données nous utilisons dans un écosystème de modèles divers.
Sur la deuxième question de résolution des contraintes d'approvisionnement, il ne s'agit pas seulement d'essayer de reproduire Scale AI avec des jetons, mais de comprendre où nous pouvons avoir un avantage compte tenu des vents favorables techniques et comment nous pouvons construire des solutions réfléchies avec un avantage concurrentiel, que ce soit en termes d'échelle, de qualité ou de mécanismes d'incitation (et de filtrage) meilleurs pour créer un produit de données de valeur supérieure. Surtout que la majeure partie de la demande continue de provenir de l'IA web2, réfléchir à la manière dont nous pouvons combiner les mécanismes appliqués par les contrats intelligents avec les SLA et les instruments conventionnels est un domaine important à prendre en compte.
Si les données sont l'un des éléments fondamentaux du développement et du déploiement de l'IA, le calcul est l'autre. Le paradigme hérité des grands centres de données avec un accès unique aux sites, à l'énergie et au matériel a largement défini la trajectoire de l'apprentissage profond et de l'IA au cours des dernières années, mais les contraintes physiques ainsi que les développements open source commencent à remettre en question cette dynamique.
La version 1 de l'informatique en IA décentralisée ressemblait à une réplique des clouds GPU web2 sans réel avantage en termes d'approvisionnement (matériel ou centres de données) et une demande organique minimale. Dans la version 2, nous commençons à voir des équipes remarquables construire des piles technologiques appropriées sur des approvisionnements hétérogènes de calcul hautes performances (HPC) avec des compétences en matière d'orchestration, de routage et de tarification, ainsi que des fonctionnalités exclusives supplémentaires conçues pour attirer la demande et lutter contre la compression des marges, notamment du côté de l'inférence. Les équipes commencent également à diverger en fonction des cas d'utilisation et de la GTM, certaines se concentrant sur l'incorporation de frameworks de compilation pour un routage d'inférence efficace sur du matériel diversifié, tandis que d'autres sont à l'avant-garde des frameworks de formation de modèles distribués au-dessus des réseaux de calcul qu'elles construisent.
Nous commençons même à voir émerger un marché de l'IA-Fi avec de nouveaux primitives économiques pour transformer l'informatique et les GPU en actifs producteurs de rendement ou utiliser la liquidité onchain pour offrir aux centres de données une source de capital alternative pour acquérir du matériel. La grande question ici est dans quelle mesure DeAI sera développé et déployé sur des rails de calcul décentralisés ou, si, comme pour le stockage, l'écart entre l'idéologie et les besoins pratiques ne se referme jamais suffisamment pour atteindre le plein potentiel de l'idée.
En ce qui concerne l’incitation des réseaux au calcul décentralisé à haute performance, l’un des principaux défis de l’orchestration du calcul hétérogène est l’absence d’un ensemble de normes convenues pour la prise en compte de ce calcul. Les modèles d’IA ajoutent de manière unique plusieurs rides à l’espace de sortie du HPC, allant des variantes de modèles et de la quantification aux niveaux réglables de stochasticité via les modèles. températureet des hyperparamètres d'échantillonnage. De plus, le matériel IA peut introduire plus de complexités via des sorties variées basées sur les architectures GPU et les versions de CUDA. En fin de compte, cela entraîne un besoin de normes concernant la manière dont les modèles et les marchés informatiques totalisent leurs capacités lorsqu'ils sont croisés avec des systèmes distribués hétérogènes.
Au moins en partie à cause de ce manque de normes, nous avons vu de nombreux cas cette année dans le web2 et le web3 où les modèles et les marchés de calcul n’ont pas réussi à rendre compte avec précision de la qualité et de la quantité de leur calcul. Cela a conduit les utilisateurs à auditer les performances réelles de ces couches d’IA en exécutant leurs propres benchmarks de modèles comparatifs et en effectuant des preuves de travail en limitant le débit dudit marché de calcul.
Étant donné le principe fondamental de vérifiabilité de l'espace crypto, nous espérons que l'intersection de la crypto et de l'IA en 2025 sera plus facilement vérifiable par rapport à l'IA traditionnelle. Plus précisément, il est important que les utilisateurs moyens puissent effectuer des comparaisons directes sur les aspects d'un modèle ou d'un cluster donné qui définissent ses sorties afin d'auditer et de mesurer les performances d'un système.
Dans “Les promesses et les défis des applications crypto + IAVitalik évoque un défi unique pour relier la crypto et l'IA :
« En cryptographie, l'open source est le seul moyen de rendre quelque chose vraiment sécurisé, mais en IA, un modèle (ou même ses données d'entraînement) ouvert augmente considérablement sa vulnérabilité aux attaques d'apprentissage machine adversaires. »
Bien que la confidentialité ne soit pas un nouveau domaine de recherche pour les blockchains, nous pensons que la prolifération de l'IA continuera d'accélérer la recherche et l'utilisation des primitives cryptographiques qui permettent la confidentialité. Cette année a déjà vu d'énormes avancées dans les technologies améliorant la confidentialité telles que ZK, FHE, TEE et MPC pour des cas d'utilisation tels que l'état partagé privé pour le calcul sur des données chiffrées pour des applications générales. Parallèlement, nous avons vu des géants de l'IA centralisés comme Nvidia et Apple utiliser des TEE propriétaires pour l'apprentissage fédéré et l'inférence d'IA privée en maintenant le matériel, le micrologiciel et les modèles constants à travers les systèmes.
Avec cela à l'esprit, nous suivrons de près les développements concernant le maintien de la confidentialité des transitions d'état stochastiques ainsi que la manière dont ils accélèrent le progrès des applications d'IA décentralisées dans le monde réel sur des systèmes hétérogènes, de l'inférence privée décentralisée aux pipelines de stockage/accès pour les données chiffrées et les environnements d'exécution entièrement souverains.
La pile Apple Intelligence d'Apple et le GPU H100 de Nvidia
L'un des cas d'utilisation les plus proches à court terme des agents d'IA est de les utiliser pour effectuer des transactions de manière autonome sur la chaîne pour notre compte. Il y a eu, il faut l'admettre, beaucoup de langage flou au cours des 12 à 16 derniers mois sur ce qui définit exactement une intention, une action agente, une intention agente, un solveur, un solveur agente, etc., et comment ils se différencient du développement plus conventionnel des 'bots' des dernières années.
Au cours des 12 prochains mois, nous sommes impatients de voir des systèmes de langage de plus en plus sophistiqués associés à différents types de données et à des architectures de réseaux neuronaux pour faire avancer l'espace de conception global. Les agents effectueront-ils des transactions en utilisant les mêmes systèmes onchain que nous utilisons aujourd'hui ou développeront-ils leurs propres outils/méthodes pour effectuer des transactions onchain ? Les LLM continueront-ils à être la backend de ces systèmes de transaction agentic ou un autre système entièrement ? À la couche d'interface, les utilisateurs commenceront-ils à effectuer des transactions en utilisant un langage naturel ? La thèse classique des « portefeuilles en tant que navigateurs » se concrétisera-t-elle enfin ?
Partilhar
Conteúdos
La transparence par défaut et la composabilité des blockchains en font un substrat parfait pour l'interaction entre agents, où les agents développés par différentes entités à des fins différentes peuvent interagir entre eux de manière transparente. Il y a déjà eu une grande expérimentation deles agents s'envoient des fonds entre eux,lancement de jetons ensemble, et plus encore. Nous aimerions voir comment l'interaction agent à agent peut évoluer en créant de tout nouveaux espaces d'application, commenouveaux lieux sociaux alimentés par des interactions d'agents, ainsi que paraméliorer les flux de travail des entreprisesnous savons aujourd'hui qu'il est fastidieux, de l'authentification et de la vérification de la plateforme aux micro-paiements, en passant par les intégrations de flux de travail inter-plateformes et bien plus encore.
aethernet et clanker lancent ensemble un jeton sur Warpcast
La coordination à grande échelle des agents multiples est un domaine de recherche tout aussi passionnant. Comment les systèmes multi-agents peuvent-ils travailler ensemble pour accomplir des tâches, résoudre des problèmes et gouverner des systèmes et des protocoles ? Dans son article de début de 2024, «Les promesses et les défis des applications crypto + IA», Vitalik fait référence à l’utilisation d’agents d’IA pour les marchés de prédiction et l’arbitrage. À grande échelle, il postule essentiellement que les systèmes multi-agents ont une capacité remarquable pour la recherche de la « vérité » et des systèmes de gouvernance généralement autonomes. Nous sommes curieux de voir comment les capacités des systèmes multi-agents et des formes d'« intelligence en essaim » continuent d’être découvertes et expérimentées.
En tant qu’extension de la coordination agent-agent, la coordination agent-humain est un espace de conception intéressant, en particulier la façon dont les communautés s’engagent autour des agents ou la façon dont les agents organisent les humains pour faire de l’action collective. Nous aimerions voir plus d’expérimentations avec des agents dont la fonction objective implique une coordination humaine à grande échelle. Cela devra être associé à un mécanisme de vérification, surtout si le travail humain a été effectué hors chaîne, mais il pourrait y avoir un comportement émergent très étrange et intéressant.
Le concept de personnalités numériques existe depuis des décennies.Hatsune Miku (2007) a fait salle comble dans des salles de 20 000 places etLil Miquela (2016) a plus de 2 millions de followers sur Instagram. Des exemples plus récents et moins connus incluent l'IA vtuberNeuro-sama (2022) qui compte plus de 600 000 abonnés sur Twitch et le groupe de garçons kpop pseudonyme@plave_official/featured"> PLAVE (2023), qui a accumulé plus de 300M+ de vues sur YouTube en moins de deux ans. Avec les avancées de l'infrastructure de l'IA et l'intégration des blockchains pour les paiements, les transferts de valeur et les plateformes de données ouvertes, nous sommes impatients de voir comment ces agents peuvent devenir plus autonomes et potentiellement ouvrir une nouvelle catégorie grand public de divertissement en 2025.
Dans le sens des aiguilles d'une montre, en partant du coin supérieur gauche : Hatsune Miku, Luna de Virtuals, Lil Miquela et PLAVE
Où dans le cas précédent, l'agent estle produit, il y a aussi le cas où les agents peuvent compléter les produits. Dans une économie de l'attention, maintenir un flux constant de contenu convaincant est crucial pour le succès de toute idée, produit, entreprise, etc. Le contenu génératif/agentic est un outil puissant que les équipes peuvent utiliser pour garantir un pipeline d'origination de contenu évolutif, 24h/24, 7j/7. Cet espace d'idées a été accéléré parla discussion autour de ce qui distingue un memecoin d'un agent.Les agents sont un moyen puissant pour que les memecoins gagnent en distribution, même s'ils ne sont pas strictement « agentiques » (encore).
Comme autre exemple,@archetypeDe joueurs à dieux : les jeux et les mondes autonomes"> les jeux sont de plus en plus attendus pour être plus dynamiques afin de maintenir l'engagement des utilisateurs. Une méthode classique pour créer du dynamisme dans les jeux est de cultiver du contenu généré par l'utilisateur ; le contenu purement génératif (des objets en jeu, aux PNJ, en passant par des niveaux entièrement génératifs) est peut-être la prochaine ère de cette évolution. Nous sommes curieux de voir dans quelle mesure les limites de la stratégie de distribution traditionnelle seront étendues par les capacités des agents en 2025.
En 2024, nous avons lancé@archetype"> EN CONVERSATION AVEC, une série d'entretiens avec des artistes dans/aux confins du crypto à travers la musique, l'art visuel, le design, la curation, et plus encore. L'une des principales observations que j'ai tirées des entretiens de cette année est que les artistes intéressés par le crypto s'intéressent souvent de manière plus générale à la technologie de pointe, ainsi qu'à ce que cette technologie soit plus étroitement intégrée dans l'esthétique ou le focus de leur pratique, c'est-à-dire les objets en RA/RV, l'art basé sur le code, et le livecoding.
L'art génératif en particulier a historiquement vu des synergies avec les blockchains, ce qui rend son potentiel en tant que substrat similaire pour l'art de l'IA plus clair. Présenter et afficher correctement ces médiums artistiques est incroyablement difficile à réaliser dans des forums traditionnels. ArtBlocks a donné un aperçu de ce à quoi pourrait ressembler l'avenir de la présentation, du stockage, de la monétisation et de la préservation de l'art numérique en tirant parti des blockchains, améliorant ainsi l'expérience globale tant pour les artistes que pour les spectateurs. Au-delà de la présentation,Les outils d'IA ont même étendu la capacité des profanes à créer leur propre artIl sera très intéressant de voir comment les blockchains peuvent étendre ou alimenter ces outils en 2025.
Un extrait de EN CONVERSATION AVEC: Maya Man
Au cours des 20 ans depuis que Clive Humby a inventé l'expression « les données sont le nouveau pétrole », les entreprises ont pris des mesures robustes pour stocker et monétiser les données des utilisateurs. Les utilisateurs se sont réveillés à la réalité que leurs données sont le fondement sur lequel ces entreprises valant des milliards de dollars sont construites, mais ils ont très peu de contrôle sur la manière dont leurs données sont exploitées ni d'exposition aux profits qu'elles génèrent. L'accélération des puissants modèles d'IA rend cette tension encore plus existentielle. Si combattre l'exploitation des utilisateurs est une partie de l'opportunité des données, l'autre concerne la résolution des pénuries d'approvisionnement en données alors que des modèles de plus en plus grands et meilleurs épuisent les gisements de pétrole facilement accessibles des données publiques sur Internet et demandent de nouvelles sources.
Sur la première question de savoir comment nous pouvons utiliser une infrastructure décentralisée pour transférer le pouvoir des données à son point d'origine (les utilisateurs), il s'agit d'un vaste espace de conception qui nécessite des solutions novatrices dans un éventail de domaines. Certaines des plus pressantes comprennent : où les données sont stockées et comment nous préservons la confidentialité (pendant le stockage, le transfert et le calcul), comment nous évaluons objectivement, filtrons et apprécions la qualité des données, quels mécanismes nous utilisons pour l'attribution et la monétisation (surtout lorsqu'il s'agit de relier la valeur à la source après l'inférence), et quels systèmes d'orchestration ou de récupération de données nous utilisons dans un écosystème de modèles divers.
Sur la deuxième question de résolution des contraintes d'approvisionnement, il ne s'agit pas seulement d'essayer de reproduire Scale AI avec des jetons, mais de comprendre où nous pouvons avoir un avantage compte tenu des vents favorables techniques et comment nous pouvons construire des solutions réfléchies avec un avantage concurrentiel, que ce soit en termes d'échelle, de qualité ou de mécanismes d'incitation (et de filtrage) meilleurs pour créer un produit de données de valeur supérieure. Surtout que la majeure partie de la demande continue de provenir de l'IA web2, réfléchir à la manière dont nous pouvons combiner les mécanismes appliqués par les contrats intelligents avec les SLA et les instruments conventionnels est un domaine important à prendre en compte.
Si les données sont l'un des éléments fondamentaux du développement et du déploiement de l'IA, le calcul est l'autre. Le paradigme hérité des grands centres de données avec un accès unique aux sites, à l'énergie et au matériel a largement défini la trajectoire de l'apprentissage profond et de l'IA au cours des dernières années, mais les contraintes physiques ainsi que les développements open source commencent à remettre en question cette dynamique.
La version 1 de l'informatique en IA décentralisée ressemblait à une réplique des clouds GPU web2 sans réel avantage en termes d'approvisionnement (matériel ou centres de données) et une demande organique minimale. Dans la version 2, nous commençons à voir des équipes remarquables construire des piles technologiques appropriées sur des approvisionnements hétérogènes de calcul hautes performances (HPC) avec des compétences en matière d'orchestration, de routage et de tarification, ainsi que des fonctionnalités exclusives supplémentaires conçues pour attirer la demande et lutter contre la compression des marges, notamment du côté de l'inférence. Les équipes commencent également à diverger en fonction des cas d'utilisation et de la GTM, certaines se concentrant sur l'incorporation de frameworks de compilation pour un routage d'inférence efficace sur du matériel diversifié, tandis que d'autres sont à l'avant-garde des frameworks de formation de modèles distribués au-dessus des réseaux de calcul qu'elles construisent.
Nous commençons même à voir émerger un marché de l'IA-Fi avec de nouveaux primitives économiques pour transformer l'informatique et les GPU en actifs producteurs de rendement ou utiliser la liquidité onchain pour offrir aux centres de données une source de capital alternative pour acquérir du matériel. La grande question ici est dans quelle mesure DeAI sera développé et déployé sur des rails de calcul décentralisés ou, si, comme pour le stockage, l'écart entre l'idéologie et les besoins pratiques ne se referme jamais suffisamment pour atteindre le plein potentiel de l'idée.
En ce qui concerne l’incitation des réseaux au calcul décentralisé à haute performance, l’un des principaux défis de l’orchestration du calcul hétérogène est l’absence d’un ensemble de normes convenues pour la prise en compte de ce calcul. Les modèles d’IA ajoutent de manière unique plusieurs rides à l’espace de sortie du HPC, allant des variantes de modèles et de la quantification aux niveaux réglables de stochasticité via les modèles. températureet des hyperparamètres d'échantillonnage. De plus, le matériel IA peut introduire plus de complexités via des sorties variées basées sur les architectures GPU et les versions de CUDA. En fin de compte, cela entraîne un besoin de normes concernant la manière dont les modèles et les marchés informatiques totalisent leurs capacités lorsqu'ils sont croisés avec des systèmes distribués hétérogènes.
Au moins en partie à cause de ce manque de normes, nous avons vu de nombreux cas cette année dans le web2 et le web3 où les modèles et les marchés de calcul n’ont pas réussi à rendre compte avec précision de la qualité et de la quantité de leur calcul. Cela a conduit les utilisateurs à auditer les performances réelles de ces couches d’IA en exécutant leurs propres benchmarks de modèles comparatifs et en effectuant des preuves de travail en limitant le débit dudit marché de calcul.
Étant donné le principe fondamental de vérifiabilité de l'espace crypto, nous espérons que l'intersection de la crypto et de l'IA en 2025 sera plus facilement vérifiable par rapport à l'IA traditionnelle. Plus précisément, il est important que les utilisateurs moyens puissent effectuer des comparaisons directes sur les aspects d'un modèle ou d'un cluster donné qui définissent ses sorties afin d'auditer et de mesurer les performances d'un système.
Dans “Les promesses et les défis des applications crypto + IAVitalik évoque un défi unique pour relier la crypto et l'IA :
« En cryptographie, l'open source est le seul moyen de rendre quelque chose vraiment sécurisé, mais en IA, un modèle (ou même ses données d'entraînement) ouvert augmente considérablement sa vulnérabilité aux attaques d'apprentissage machine adversaires. »
Bien que la confidentialité ne soit pas un nouveau domaine de recherche pour les blockchains, nous pensons que la prolifération de l'IA continuera d'accélérer la recherche et l'utilisation des primitives cryptographiques qui permettent la confidentialité. Cette année a déjà vu d'énormes avancées dans les technologies améliorant la confidentialité telles que ZK, FHE, TEE et MPC pour des cas d'utilisation tels que l'état partagé privé pour le calcul sur des données chiffrées pour des applications générales. Parallèlement, nous avons vu des géants de l'IA centralisés comme Nvidia et Apple utiliser des TEE propriétaires pour l'apprentissage fédéré et l'inférence d'IA privée en maintenant le matériel, le micrologiciel et les modèles constants à travers les systèmes.
Avec cela à l'esprit, nous suivrons de près les développements concernant le maintien de la confidentialité des transitions d'état stochastiques ainsi que la manière dont ils accélèrent le progrès des applications d'IA décentralisées dans le monde réel sur des systèmes hétérogènes, de l'inférence privée décentralisée aux pipelines de stockage/accès pour les données chiffrées et les environnements d'exécution entièrement souverains.
La pile Apple Intelligence d'Apple et le GPU H100 de Nvidia
L'un des cas d'utilisation les plus proches à court terme des agents d'IA est de les utiliser pour effectuer des transactions de manière autonome sur la chaîne pour notre compte. Il y a eu, il faut l'admettre, beaucoup de langage flou au cours des 12 à 16 derniers mois sur ce qui définit exactement une intention, une action agente, une intention agente, un solveur, un solveur agente, etc., et comment ils se différencient du développement plus conventionnel des 'bots' des dernières années.
Au cours des 12 prochains mois, nous sommes impatients de voir des systèmes de langage de plus en plus sophistiqués associés à différents types de données et à des architectures de réseaux neuronaux pour faire avancer l'espace de conception global. Les agents effectueront-ils des transactions en utilisant les mêmes systèmes onchain que nous utilisons aujourd'hui ou développeront-ils leurs propres outils/méthodes pour effectuer des transactions onchain ? Les LLM continueront-ils à être la backend de ces systèmes de transaction agentic ou un autre système entièrement ? À la couche d'interface, les utilisateurs commenceront-ils à effectuer des transactions en utilisant un langage naturel ? La thèse classique des « portefeuilles en tant que navigateurs » se concrétisera-t-elle enfin ?