Merci tout particulièrement aux équipes de Worldcoin et Modulus Labs, à Xinyuan Sun, Martin Koeppelmann et Illia Polosukhin pour leurs commentaires et leurs discussions.
Au fil des ans, de nombreuses personnes m'ont posé la même question : quelles sont les intersections entre la cryptographie et l'IA qui me semblent les plus fructueuses ? La question est raisonnable : la cryptographie et l'IA sont les deux principales tendances technologiques (logicielles) profondes de ces dix dernières années, et j'ai juste l'impression qu'il doit y avoir un lien entre les deux. Il est facile de trouver des synergies à première vue : la décentralisation de la cryptographie peut contrebalancer la centralisation de l'IA, l'IA est opaque et la cryptographie apporte de la transparence, l'IA a besoin de données et les blockchains sont utiles pour stocker et suivre les données. Mais au fil des ans, lorsque les gens me demandaient d'approfondir un niveau et de parler d'applications spécifiques, ma réponse a été décevante : « Oui, il y a quelques éléments mais pas tant que ça ».
Ces trois dernières années, avec l'essor d'une IA bien plus puissante sous la forme de LLM modernes, et l'essor de cryptomonnaies bien plus puissantes, sous la forme non seulement de solutions de mise à l'échelle de la blockchain, mais aussi de ZKP, de FHE et de MPC(bipartite et N-party), je commence à constater ce changement. Il existe en effet des applications prometteuses de l'IA dans les écosystèmes de la blockchain, ou de l'IA associée à la cryptographie, mais il est important de faire attention à la manière dont l'IA est appliquée. Un défi particulier est le suivant : en matière de cryptographie, l'open source est le seul moyen de sécuriser réellement quelque chose, mais en matière d'IA, le fait qu'un modèle (ou même ses données d'entraînement) soit ouvert augmente considérablement sa vulnérabilité aux attaques d'apprentissage automatique contradictoires. Ce billet passe en revue les différentes manières dont la cryptographie et l'IA peuvent se croiser, ainsi que les perspectives et les défis de chaque catégorie.
Un résumé détaillé des intersections entre cryptographie et IA, extrait d'un billet de blog de l'UETH. Mais que faut-il pour concrétiser l'une de ces synergies dans une application concrète ?
L'IA est un concept très large : vous pouvez considérer l' « IA » comme l'ensemble d'algorithmes que vous créez, non pas en les spécifiant explicitement, mais en mélangeant une grande quantité de calculs et en exerçant une sorte de pression d'optimisation qui incite à produire des algorithmes dotés des propriétés souhaitées. Cette description ne doit certainement pas être prise de manière dédaigneuse : elle inclut le processus qui a fait de nous des humains ! Mais cela signifie que les algorithmes d'IA ont certaines propriétés communes : leur capacité à faire des choses extrêmement puissantes, ainsi que les limites de notre capacité à savoir ou à comprendre ce qui se passe sous le capot.
Il existe de nombreuses manières de classer l'IA ; pour les besoins de ce billet, qui parle des interactions entre l'IA et les blockchains (qui ont été décrites comme une plateforme permettant à < a href= " https://medium.com/@virgilgr/ethereum-is-game-changing-technology-literally-d67e01a01cf8 " > qui crée des « jeux »), je vais la classer comme suit :
Examinons-les un par un.
Il s'agit en fait d'une catégorie qui existe depuis près de dix ans, du moins depuis que les échanges décentralisés en chaîne (DEX) ont commencé à être utilisés de manière significative. Chaque fois qu'il y a une plateforme d'échange, il est possible de gagner de l'argent grâce à l'arbitrage, et les robots peuvent arbitrer bien mieux que les humains. Ce cas d'utilisation existe depuis longtemps, même avec des IA bien plus simples que celles que nous avons aujourd'hui, mais en fin de compte, il s'agit d'une véritable intersection entre IA et cryptographie. Plus récemment, nous avons vu des robots d'arbitrage MEV s'exploiter mutuellement. Chaque fois que vous avez une application blockchain qui implique des ventes aux enchères ou des transactions, vous avez des robots d'arbitrage.
Mais les robots d'arbitrage basés sur l'IA ne sont que le premier exemple d'une catégorie bien plus vaste, qui devrait bientôt inclure de nombreuses autres applications. Découvrez AiOmen, une démo d'un marché de prédiction où les IA jouent un rôle :
Les marchés de prédiction sont le Saint Graal de la technologie épistémique depuis longtemps. J'étais enthousiasteà l'idée de les utiliser comme outil de gouvernance (« futarchie ») en 2014, et j'ai beaucoup joué avec eux lors des dernières élections et plus récemment. Mais jusqu'à présent, les marchés de prédiction n'ont pas beaucoup décollé dans la pratique, et plusieurs raisons sont souvent invoquées pour expliquer cela : les principaux participants sont souvent irrationnels, les personnes possédant les bonnes connaissances ne sont pas prêtes à prendre le temps de parier à moins que beaucoup d'argent ne soit en jeu, les marchés sont souvent maigres, etc.
L'une des réponses à cela est de signaler les améliorations continues de l'expérience utilisateur sur Polymarket ou sur d'autres nouveaux marchés de prédiction, et d'espérer qu'elles seront couronnées de succès là où les itérations précédentes ont échoué. Après tout, selon l'histoire, les gens sont prêts à parier des dizaines de milliards sur le sport, alors pourquoi ne pas investir assez d'argent en pariant sur les élections américaines ou sur LK99 pour que cela prenne du sens pour les joueurs sérieux ? Mais cet argument doit tenir compte du fait que, eh bien, les versions précédentes n'ont pas atteint ce niveau d'échelle (du moins par rapport aux rêves de leurs partisans). Il semble donc qu'il faille quelque chose de nouveau pour réussir sur les marchés des prévisions. Une autre réponse consiste donc à souligner une caractéristique spécifique des écosystèmes des marchés de prédiction que nous pouvons nous attendre à voir apparaître dans les années 2020, mais que nous n'avions pas constatée dans les années 2010 : la possibilité d'une participation omniprésente des IA.
Les IA sont prêtes à travailler pour moins d'un dollar de l'heure et connaissent une encyclopédie. Et si cela ne suffit pas, elles peuvent même être intégrées à une fonction de recherche sur le Web en temps réel. Si vous créez un marché et que vous offrez une subvention de liquidités de 50 dollars, les humains ne se soucieront pas d'enchérir, mais des milliers d'IA se pencheront facilement sur la question et feront de leur mieux pour deviner le mieux possible. L'incitation à faire du bon travail sur une question est peut-être minime, mais l'incitation à créer une IA capable de faire de bonnes prédictions en général peut se chiffrer en millions. Notez que vous n'avez peut-être même pas besoin d'humains pour répondre à la plupart des questions : vous pouvez utiliser un système de règlement en plusieurs tours, similaire à Augur ou Kleros, où les IA seraient également celles qui participeraient aux tours précédents. Les humains n'auraient besoin de réagir que dans les quelques cas où une série d'escalades se sont produites et où d'importantes sommes d'argent ont été engagées par les deux parties.
C'est une primitive puissante, car une fois qu'un « marché des prévisions » peut fonctionner à une échelle aussi microscopique, vous pouvez réutiliser la primitive « marché des prévisions » pour de nombreux autres types de questions :
Vous remarquerez peut-être que bon nombre de ces idées vont dans le sens de ce que j'ai appelé la « défense de l'information » dans mes écrits sur « d/acc ». Au sens large, la question est la suivante : comment aider les utilisateurs à distinguer les informations vraies des informations fausses et à détecter les escroqueries, sans donner à une autorité centralisée le pouvoir de décider qui pourrait abuser de cette position ? Au niveau micro, la réponse peut être « IA ». Mais au niveau macroéconomique, la question est la suivante : qui construit l'IA ? L'IA est le reflet du processus qui l'a créée et ne peut donc pas éviter d'être biaisée. Il est donc nécessaire de créer un jeu de niveau supérieur qui évalue les performances des différentes IA, où les IA peuvent participer au jeu en tant que joueuses.
Cette utilisation de l'IA, selon laquelle les IA participent à un mécanisme qui leur permet d'être récompensées ou pénalisées (de façon probabiliste) par un mécanisme en chaîne qui recueille des informations provenant d'humains (appelle-t-on cela une RLHF décentralisée basée sur le marché ?), est quelque chose qui, à mon avis, vaut vraiment la peine d'être étudié. C'est le bon moment pour se pencher davantage sur de tels cas d'utilisation, car la mise à l'échelle de la blockchain est enfin un succès, rendant ainsi tout ce qui est « micro » viable sur la chaîne, alors que ce n'était souvent pas le cas auparavant.
Une catégorie connexe d'applications va dans le sens d'agents hautement autonomes utilisant des blockchains pour mieux coopérer, que ce soit par le biais de paiements ou de contrats intelligents pour prendre des engagements crédibles.
L'une des idées que j'ai évoquées dans mes écrits est l'idée qu'il existe une opportunité commerciale de créer un logiciel destiné aux utilisateurs qui protégerait leurs intérêts en interprétant et en identifiant les dangers du monde en ligne dans lequel ils naviguent. La fonction de détection des escroqueries de Metamask en est un exemple déjà existant :
Un autre exemple est la fonction de simulation du portefeuille Rabby, qui montre à l'utilisateur les conséquences attendues de la transaction qu'il s'apprête à signer.
Rabby m'explique les conséquences de la signature d'une transaction pour échanger la totalité de mes « BITCOINS » (le symbole d'un memecoin ERC20 dont le nom complet est apparemment « HarryPotterObamasonic10inu ») contre de l'ETH.
Edit 2024.02.02 : une version précédente de ce billet qualifiait ce jeton d'escroquerie visant à se faire passer pour un bitcoin. Non, c'est un memecoin. Toutes mes excuses pour cette confusion.
Potentiellement, ce type d'outils pourrait être suralimenté grâce à l'IA. L'IA pourrait fournir une explication bien plus complète et plus conviviale du type de dapp auquel vous participez, des conséquences des opérations plus complexes que vous signez, de l'authenticité d'un jeton en particulier (par ex. BITCOIN n'est pas simplement une chaîne de caractères, c'est normalement le nom d'une crypto-monnaie majeure, qui n'est pas un jeton ERC20 et dont le prix est bien supérieur à 0,045 dollar, et un LLM moderne le saurait), et ainsi de suite. Certains projets commencent à aller dans cette direction (par exemple, le portefeuille LangChain, qui utilise l'IA comme interface principale). À mon avis, les interfaces purement basées sur l'IA sont probablement trop risquées pour le moment car elles augmentent le risque d'autres types d'erreurs, mais l'IA complétant une interface plus conventionnelle est de plus en plus viable.
Il y a un risque particulier qui mérite d'être mentionné. J'y reviendrai plus en détail dans la section « L'IA comme règle du jeu » ci-dessous, mais le problème général est l'apprentissage automatique contradictoire : si un utilisateur a accès à un assistant IA dans un portefeuille open source, les méchants auront également accès à cet assistant IA, et ils auront donc des possibilités illimitées d'optimiser leurs escroqueries pour ne pas déclencher les défenses de ce portefeuille. Toutes les IA modernes ont des bugs quelque part, et il n'est pas difficile de les détecter lors d'un processus d'entraînement, même si l'accès au modèle est limité.
C'est là que « les IA participant à des micro-marchés en chaîne » fonctionnent le mieux : chaque IA est vulnérable aux mêmes risques, mais vous créez intentionnellement un écosystème ouvert composé de dizaines de personnes qui les itèrent et les améliorent constamment. De plus, chaque IA est fermée : la sécurité du système repose sur l'ouverture des règles du jeu, et non sur le fonctionnement interne de chaque joueur.
Résumé : L'IA peut aider les utilisateurs à comprendre ce qui se passe en langage clair, elle peut leur servir de tuteur en temps réel, elle peut protéger les utilisateurs contre les erreurs, mais soyez avertie lorsque vous essayez de l'utiliser directement contre des désinformateurs et des escrocs malveillants.
Passons maintenant à l'application qui intéresse beaucoup de monde, mais qui, selon moi, est la plus risquée, et celle à laquelle nous devons faire preuve de la plus grande prudence : ce que j'appelle les IA fait partie des règles du jeu. Cela est dû à l'engouement suscité par les « juges IA » au sein des élites politiques traditionnelles (par ex. voir cet article sur le site du « World Government Summit »), et il existe des analogues à ces souhaits dans les applications blockchain. Si un contrat intelligent basé sur la blockchain ou un DAO doit prendre une décision subjective (par exemple, est-ce qu'un produit de travail en particulier est acceptable dans un contrat de travail contre rémunération ? Quelle est la bonne interprétation d'une constitution en langage naturel, telle que la Loi des chaînes de l'optimisme ?) , pourriez-vous simplement intégrer une IA au contrat ou à une DAO pour aider à faire appliquer ces règles ?
C'est là que l'apprentissage automatique contradictoire va représenter un défi extrêmement difficile. L'argument de base en deux phrases pour expliquer la raison est le suivant :
Si un modèle d'IA jouant un rôle clé dans un mécanisme est fermé, vous ne pouvez pas vérifier son fonctionnement interne. Ce n'est donc pas mieux qu'une application centralisée. Si le modèle d'IA est ouvert, un attaquant peut le télécharger et le simuler localement, et concevoir des attaques fortement optimisées pour tromper le modèle, qu'il pourra ensuite rejouer en direct sur le réseau.
Exemple d'apprentissage automatique contradictoire. Source : researchgate.net
Maintenant, les lecteurs assidus de ce blog (ou les habitants du cryptoverse) sont peut-être déjà en train de me prendre de l'avance et se disent : mais attendez ! Nous avons des preuves de connaissance zéro et d'autres formes de cryptographie vraiment géniales. Nous pouvons sûrement faire de la cryptographie et masquer le fonctionnement interne du modèle afin que les attaquants ne puissent pas optimiser les attaques, tout en prouvant que le modèle est correctement exécuté et qu'il a été construit selon un processus d'entraînement raisonnable sur un ensemble raisonnable de données sous-jacentes !
Normalement, c'est exactement le type de pensée que je défends à la fois sur ce blog et dans mes autres écrits. Mais dans le cas des calculs liés à l'IA, il y a deux objections majeures :
Ce sont deux terriers à lapins compliqués, alors abordons chacun d'eux à tour de rôle.
Les gadgets cryptographiques, en particulier ceux à usage général tels que zk-SNARKS et MPC, sont très onéreux. Il faut quelques centaines de millisecondes pour qu'un client vérifie directement un bloc Ethereum, mais générer un ZK-SNARK pour prouver l'exactitude d'un tel bloc peut prendre des heures. Les frais généraux d'autres gadgets cryptographiques, comme le MPC, peuvent être encore pires. Le calcul par IA coûte déjà cher : les LLM les plus puissants peuvent générer des mots individuels un peu plus vite que les humains ne peuvent les lire, sans parler des coûts de calcul souvent de plusieurs millions de dollars liés à l'entraînement des modèles. La différence de qualité entre les modèles haut de gamme et les modèles qui essaient de réduire les coûts de formation ou le nombre de paramètres est importante. À première vue, c'est une très bonne raison de se méfier de l'ensemble du projet qui vise à ajouter des garanties à l'IA en l'intégrant à la cryptographie.
Heureusement, l'IA est un type de calcul très spécifique, ce qui lui permet de bénéficier de toutes sortes d'optimisations dont les types de calcul plus « non structurés » tels que zK-EVMS ne peuvent pas bénéficier. Examinons la structure de base d'un modèle d'IA :
Habituellement, un modèle d'IA consiste principalement en une série de multiplications matricielles entrecoupées d'opérations non linéaires par élément, comme la fonction ReLu(y = max (x, 0)). D'un point de vue asymptotique, les multiplications matricielles occupent la majeure partie du travail : pour multiplier deux matrices N*N, il faut
temps, alors que le nombre d'opérations non linéaires est bien moindre. C'est très pratique pour la cryptographie, car de nombreuses formes de cryptographie permettent d'effectuer des opérations linéaires (ce que sont les multiplications matricielles, du moins si vous chiffrez le modèle mais pas les entrées de celui-ci) presque « gratuitement ».
Si vous êtes cryptographe, vous avez probablement déjà entendu parler d'un phénomène similaire dans le contexte du chiffrement homomorphe: effectuer des ajouts sur des textes chiffrés est très facile, mais les multiplications sont incroyablement difficiles et nous n'avons trouvé aucun moyen de le faire avec une profondeur illimitée avant 2009.
Pour les zk-SNARKS, l'équivalent est celui de protocoles comme celui-ci datant de 2013, qui permet de prouver des multiplications matricielles de moins de 4 fois plus rapidement. Malheureusement, la surcharge sur les couches non linéaires finit par être importante, et les meilleures implémentations en pratique indiquent une surcharge d'environ 200 fois. Mais il y a de l'espoir que cela pourra être considérablement réduit grâce à de nouvelles recherches. Consultez cette présentation de Ryan Cao pour une approche récente basée sur GKR, et ma propre explication simplifiée du fonctionnement du composant principal de GKR.
Mais pour de nombreuses applications, nous ne voulons pas simplement prouver qu'une sortie d'IA a été calculée correctement, nous voulons également masquer le modèle. Il existe une approche naïve à ce sujet : vous pouvez diviser le modèle de manière à ce qu'un ensemble de serveurs différent stocke chaque couche de manière redondante, en espérant que certains serveurs divulguant certaines couches ne divulguent pas trop de données. Mais il existe également des formes de calcul multipartites spécialisées étonnamment efficaces.
Un schéma simplifié de l'une de ces approches, qui consiste à garder le modèle privé tout en rendant les entrées publiques. Si nous voulons garder le modèle et les entrées privés, nous le pouvons, même si c'est un peu plus compliqué : voir les pages 8 et 9 de l'article.
Dans les deux cas, la morale de l'histoire est la même : les multiplications matricielles constituent la partie la plus importante d'un calcul basé sur l'IA. Il est donc possible de créer des zk-SNARK ou des MPC (ou même des FHE) très efficaces. La charge totale liée à l'intégration de l'IA dans des boîtiers cryptographiques est donc étonnamment faible. En général, ce sont les couches non linéaires qui constituent le plus gros goulot d'étranglement malgré leur petite taille ; peut-être que de nouvelles techniques, telles que les arguments de recherche, peuvent être utiles.
Passons maintenant à l'autre gros problème : le type d'attaques que vous pouvez lancer même si le contenu du modèle reste privé et que vous n'avez qu'un « accès API » au modèle. Citant un article de 2016:
De nombreux modèles d'apprentissage automatique sont vulnérables à des exemples contradictoires : des entrées spécialement conçues pour qu'un modèle d'apprentissage automatique produise une sortie incorrecte. Les exemples contradictoires qui concernent un modèle affectent souvent un autre modèle, même si les deux modèles ont des architectures différentes ou ont été entraînés selon des ensembles d'apprentissage différents, à condition que les deux modèles aient été entraînés pour effectuer la même tâche. Un attaquant peut donc créer son propre modèle de substitution, créer des exemples contradictoires à l'encontre de celui-ci et le transférer vers un modèle de victime, avec très peu d'informations sur la victime.
Accédez en boîte noire à un « classificateur cible » pour entraîner et affiner votre propre « classificateur inféré » stocké localement. Ensuite, générez localement des attaques optimisées contre le classificateur inféré. Il s'avère que ces attaques vont souvent à l'encontre du classificateur de cibles d'origine. Source du diagramme.
Potentiellement, vous pouvez même créer des attaques en ne connaissant que les données d'entraînement, même si vous n'avez que peu ou pas d'accès au modèle que vous essayez d'attaquer. En 2023, ce type d'attaques continue de poser un grave problème.
Pour limiter efficacement ce type d'attaques en boîte noire, nous devons faire deux choses :
Le projet qui a obtenu le plus de résultats sur le premier est peut-être Worldcoin, dont j'analyse longuement une version antérieure (parmi d'autres protocoles) ici. Worldcoin utilise de nombreux modèles d'IA au niveau du protocole, pour (i) convertir les scans de l'iris en de courts « codes d'iris » faciles à comparer en termes de similitude, et (ii) vérifier que l'objet scanné est bien un être humain. Le principal moyen de défense sur lequel Worldcoin s'appuie est qu'il ne permet à personne de simplement utiliser le modèle d'IA : il utilise plutôt du matériel fiable pour s'assurer que le modèle n'accepte que les entrées signées numériquement par la caméra de l'orbe.
L'efficacité de cette approche n'est pas garantie : il s'avère que vous pouvez lancer des attaques contradictoires contre l'IA biométrique en utilisant des patchs physiques ou des bijoux que vous pouvez apposer sur votre visage :
Portez un vêtement supplémentaire sur votre front pour échapper à la détection ou même vous faire passer pour quelqu'un d'autre. Source.
Mais l'espoir est que si vous combinez toutes les défenses, si vous masquez le modèle d'IA lui-même, si vous limitez considérablement le nombre de requêtes et si vous demandez à chaque requête d'être authentifiée d'une manière ou d'une autre, vous pourrez lancer des attaques contradictoires suffisamment difficiles pour que le système soit sécurisé. Dans le cas de Worldcoin, le renforcement de ces autres défenses pourrait également réduire sa dépendance à l'égard d'un matériel fiable, renforçant ainsi la décentralisation du projet.
Et cela nous amène à la deuxième partie : comment masquer les données d'entraînement ? C'est là que « des DAO pour gouverner démocratiquement l'IA » peut prendre tout son sens : nous pouvons créer une DAO en chaîne qui régit le processus permettant de déterminer qui est autorisé à soumettre des données de formation (et quelles attestations sont requises sur les données elles-mêmes), qui est autorisé à effectuer des requêtes et combien, et utiliser des techniques cryptographiques telles que le MPC pour crypter l'ensemble du processus de création et d'exécution de l'IA, de l'entrée finale d'entraînement de chaque utilisateur jusqu'au sortie de chaque requête. Ce DAO pourrait simultanément répondre à l'objectif très populaire d'indemniser les personnes qui soumettent des données.
Il est important de réaffirmer que ce plan est très ambitieux et qu'il peut s'avérer irréalisable de plusieurs manières :
L'une des raisons pour lesquelles je n'ai pas commencé cette section par d'autres gros avertissements rouges disant « NE JUGEZ PAS L'IA, C'EST DYSTOPIQUE », c'est que notre société est déjà très dépendante de juges centralisés et irresponsables de l'IA : des algorithmes qui déterminent quels types de publications et d'opinions politiques sont boostés et déboostés, voire censurés, sur les réseaux sociaux. Je pense que renforcer cette tendance à ce stade n'est pas une bonne idée, mais je ne pense pas qu'il y ait de fortes chances que le fait que la communauté de la blockchain expérimente davantage les IA contribue à aggraver les choses.
En fait, il existe des moyens assez simples et peu risqués que la technologie cryptographique peut améliorer même ces systèmes centralisés existants, ce en quoi je suis confiante. Une technique simple est l'IA vérifiée avec publication différée : lorsqu'un site de réseau social établit un classement des publications basé sur l'IA, il peut publier un ZK-SNARK prouvant le hash du modèle qui a généré ce classement. Le site pourrait s'engager à révéler ses modèles d'IA avec un délai d'un an, par exemple. Une fois qu'un modèle est révélé, les utilisateurs peuvent vérifier le hachage pour s'assurer que le bon modèle a été publié, et la communauté peut effectuer des tests sur le modèle pour vérifier son équité. Le retard de publication ferait en sorte qu'il soit déjà obsolète au moment où le modèle sera dévoilé.
Donc, par rapport au monde centralisé, la question n'est pas de savoir si nous pouvons faire mieux, mais de combien. Dans le monde décentralisé, il est toutefois important de faire attention : si quelqu'un crée, par exemple, un marché de prédiction ou un stablecoin utilisant un oracle IA, et qu'il s'avère que l'oracle est attaquable, c'est une énorme somme d'argent qui pourrait disparaître en un instant.
Si les techniques ci-dessus pour créer une IA privée décentralisée évolutive, dont le contenu est une boîte noire inconnue de tous, peuvent réellement fonctionner, elles pourraient également être utilisées pour créer des IA dont l'utilité va au-delà des blockchains. L'équipe du protocole NEAR en fait l'un des principaux objectifs de ses travaux en cours.
Il y a deux raisons de le faire :
Il convient également de noter qu' « utiliser des incitations cryptographiques pour inciter à améliorer l'IA » peut être fait sans avoir à utiliser la cryptographie pour la chiffrer complètement : des approches comme BitTensor entrent dans cette catégorie.
Maintenant que les blockchains et les IA gagnent en puissance, les cas d'utilisation se multiplient à l'intersection de ces deux domaines. Cependant, certains de ces cas d'utilisation sont bien plus logiques et plus robustes que d'autres. En général, les cas d'utilisation dans lesquels le mécanisme sous-jacent continue d'être conçu à peu près comme auparavant, mais où les acteurs individuels deviennent des IA, ce qui permet au mécanisme de fonctionner efficacement à une échelle bien plus micrométrique, sont les plus prometteurs dans l'immédiat et les plus faciles à mettre en œuvre.
Les applications les plus difficiles à mettre en œuvre sont celles qui tentent d'utiliser des blockchains et des techniques cryptographiques pour créer un « singleton » : une IA fiable et décentralisée sur laquelle certaines applications peuvent s'appuyer pour une raison ou une autre. Ces applications sont prometteuses, à la fois en termes de fonctionnalités et en termes d'amélioration de la sécurité de l'IA afin d'éviter les risques de centralisation associés à des approches plus traditionnelles de ce problème. Mais les hypothèses sous-jacentes peuvent également échouer de nombreuses manières ; il convient donc de faire preuve de prudence, en particulier lors du déploiement de ces applications dans des contextes à forte valeur et à haut risque.
J'ai hâte de voir de nouvelles tentatives de cas d'utilisation constructifs de l'IA dans tous ces domaines, afin que nous puissions voir lesquels sont réellement viables à grande échelle.
Merci tout particulièrement aux équipes de Worldcoin et Modulus Labs, à Xinyuan Sun, Martin Koeppelmann et Illia Polosukhin pour leurs commentaires et leurs discussions.
Au fil des ans, de nombreuses personnes m'ont posé la même question : quelles sont les intersections entre la cryptographie et l'IA qui me semblent les plus fructueuses ? La question est raisonnable : la cryptographie et l'IA sont les deux principales tendances technologiques (logicielles) profondes de ces dix dernières années, et j'ai juste l'impression qu'il doit y avoir un lien entre les deux. Il est facile de trouver des synergies à première vue : la décentralisation de la cryptographie peut contrebalancer la centralisation de l'IA, l'IA est opaque et la cryptographie apporte de la transparence, l'IA a besoin de données et les blockchains sont utiles pour stocker et suivre les données. Mais au fil des ans, lorsque les gens me demandaient d'approfondir un niveau et de parler d'applications spécifiques, ma réponse a été décevante : « Oui, il y a quelques éléments mais pas tant que ça ».
Ces trois dernières années, avec l'essor d'une IA bien plus puissante sous la forme de LLM modernes, et l'essor de cryptomonnaies bien plus puissantes, sous la forme non seulement de solutions de mise à l'échelle de la blockchain, mais aussi de ZKP, de FHE et de MPC(bipartite et N-party), je commence à constater ce changement. Il existe en effet des applications prometteuses de l'IA dans les écosystèmes de la blockchain, ou de l'IA associée à la cryptographie, mais il est important de faire attention à la manière dont l'IA est appliquée. Un défi particulier est le suivant : en matière de cryptographie, l'open source est le seul moyen de sécuriser réellement quelque chose, mais en matière d'IA, le fait qu'un modèle (ou même ses données d'entraînement) soit ouvert augmente considérablement sa vulnérabilité aux attaques d'apprentissage automatique contradictoires. Ce billet passe en revue les différentes manières dont la cryptographie et l'IA peuvent se croiser, ainsi que les perspectives et les défis de chaque catégorie.
Un résumé détaillé des intersections entre cryptographie et IA, extrait d'un billet de blog de l'UETH. Mais que faut-il pour concrétiser l'une de ces synergies dans une application concrète ?
L'IA est un concept très large : vous pouvez considérer l' « IA » comme l'ensemble d'algorithmes que vous créez, non pas en les spécifiant explicitement, mais en mélangeant une grande quantité de calculs et en exerçant une sorte de pression d'optimisation qui incite à produire des algorithmes dotés des propriétés souhaitées. Cette description ne doit certainement pas être prise de manière dédaigneuse : elle inclut le processus qui a fait de nous des humains ! Mais cela signifie que les algorithmes d'IA ont certaines propriétés communes : leur capacité à faire des choses extrêmement puissantes, ainsi que les limites de notre capacité à savoir ou à comprendre ce qui se passe sous le capot.
Il existe de nombreuses manières de classer l'IA ; pour les besoins de ce billet, qui parle des interactions entre l'IA et les blockchains (qui ont été décrites comme une plateforme permettant à < a href= " https://medium.com/@virgilgr/ethereum-is-game-changing-technology-literally-d67e01a01cf8 " > qui crée des « jeux »), je vais la classer comme suit :
Examinons-les un par un.
Il s'agit en fait d'une catégorie qui existe depuis près de dix ans, du moins depuis que les échanges décentralisés en chaîne (DEX) ont commencé à être utilisés de manière significative. Chaque fois qu'il y a une plateforme d'échange, il est possible de gagner de l'argent grâce à l'arbitrage, et les robots peuvent arbitrer bien mieux que les humains. Ce cas d'utilisation existe depuis longtemps, même avec des IA bien plus simples que celles que nous avons aujourd'hui, mais en fin de compte, il s'agit d'une véritable intersection entre IA et cryptographie. Plus récemment, nous avons vu des robots d'arbitrage MEV s'exploiter mutuellement. Chaque fois que vous avez une application blockchain qui implique des ventes aux enchères ou des transactions, vous avez des robots d'arbitrage.
Mais les robots d'arbitrage basés sur l'IA ne sont que le premier exemple d'une catégorie bien plus vaste, qui devrait bientôt inclure de nombreuses autres applications. Découvrez AiOmen, une démo d'un marché de prédiction où les IA jouent un rôle :
Les marchés de prédiction sont le Saint Graal de la technologie épistémique depuis longtemps. J'étais enthousiasteà l'idée de les utiliser comme outil de gouvernance (« futarchie ») en 2014, et j'ai beaucoup joué avec eux lors des dernières élections et plus récemment. Mais jusqu'à présent, les marchés de prédiction n'ont pas beaucoup décollé dans la pratique, et plusieurs raisons sont souvent invoquées pour expliquer cela : les principaux participants sont souvent irrationnels, les personnes possédant les bonnes connaissances ne sont pas prêtes à prendre le temps de parier à moins que beaucoup d'argent ne soit en jeu, les marchés sont souvent maigres, etc.
L'une des réponses à cela est de signaler les améliorations continues de l'expérience utilisateur sur Polymarket ou sur d'autres nouveaux marchés de prédiction, et d'espérer qu'elles seront couronnées de succès là où les itérations précédentes ont échoué. Après tout, selon l'histoire, les gens sont prêts à parier des dizaines de milliards sur le sport, alors pourquoi ne pas investir assez d'argent en pariant sur les élections américaines ou sur LK99 pour que cela prenne du sens pour les joueurs sérieux ? Mais cet argument doit tenir compte du fait que, eh bien, les versions précédentes n'ont pas atteint ce niveau d'échelle (du moins par rapport aux rêves de leurs partisans). Il semble donc qu'il faille quelque chose de nouveau pour réussir sur les marchés des prévisions. Une autre réponse consiste donc à souligner une caractéristique spécifique des écosystèmes des marchés de prédiction que nous pouvons nous attendre à voir apparaître dans les années 2020, mais que nous n'avions pas constatée dans les années 2010 : la possibilité d'une participation omniprésente des IA.
Les IA sont prêtes à travailler pour moins d'un dollar de l'heure et connaissent une encyclopédie. Et si cela ne suffit pas, elles peuvent même être intégrées à une fonction de recherche sur le Web en temps réel. Si vous créez un marché et que vous offrez une subvention de liquidités de 50 dollars, les humains ne se soucieront pas d'enchérir, mais des milliers d'IA se pencheront facilement sur la question et feront de leur mieux pour deviner le mieux possible. L'incitation à faire du bon travail sur une question est peut-être minime, mais l'incitation à créer une IA capable de faire de bonnes prédictions en général peut se chiffrer en millions. Notez que vous n'avez peut-être même pas besoin d'humains pour répondre à la plupart des questions : vous pouvez utiliser un système de règlement en plusieurs tours, similaire à Augur ou Kleros, où les IA seraient également celles qui participeraient aux tours précédents. Les humains n'auraient besoin de réagir que dans les quelques cas où une série d'escalades se sont produites et où d'importantes sommes d'argent ont été engagées par les deux parties.
C'est une primitive puissante, car une fois qu'un « marché des prévisions » peut fonctionner à une échelle aussi microscopique, vous pouvez réutiliser la primitive « marché des prévisions » pour de nombreux autres types de questions :
Vous remarquerez peut-être que bon nombre de ces idées vont dans le sens de ce que j'ai appelé la « défense de l'information » dans mes écrits sur « d/acc ». Au sens large, la question est la suivante : comment aider les utilisateurs à distinguer les informations vraies des informations fausses et à détecter les escroqueries, sans donner à une autorité centralisée le pouvoir de décider qui pourrait abuser de cette position ? Au niveau micro, la réponse peut être « IA ». Mais au niveau macroéconomique, la question est la suivante : qui construit l'IA ? L'IA est le reflet du processus qui l'a créée et ne peut donc pas éviter d'être biaisée. Il est donc nécessaire de créer un jeu de niveau supérieur qui évalue les performances des différentes IA, où les IA peuvent participer au jeu en tant que joueuses.
Cette utilisation de l'IA, selon laquelle les IA participent à un mécanisme qui leur permet d'être récompensées ou pénalisées (de façon probabiliste) par un mécanisme en chaîne qui recueille des informations provenant d'humains (appelle-t-on cela une RLHF décentralisée basée sur le marché ?), est quelque chose qui, à mon avis, vaut vraiment la peine d'être étudié. C'est le bon moment pour se pencher davantage sur de tels cas d'utilisation, car la mise à l'échelle de la blockchain est enfin un succès, rendant ainsi tout ce qui est « micro » viable sur la chaîne, alors que ce n'était souvent pas le cas auparavant.
Une catégorie connexe d'applications va dans le sens d'agents hautement autonomes utilisant des blockchains pour mieux coopérer, que ce soit par le biais de paiements ou de contrats intelligents pour prendre des engagements crédibles.
L'une des idées que j'ai évoquées dans mes écrits est l'idée qu'il existe une opportunité commerciale de créer un logiciel destiné aux utilisateurs qui protégerait leurs intérêts en interprétant et en identifiant les dangers du monde en ligne dans lequel ils naviguent. La fonction de détection des escroqueries de Metamask en est un exemple déjà existant :
Un autre exemple est la fonction de simulation du portefeuille Rabby, qui montre à l'utilisateur les conséquences attendues de la transaction qu'il s'apprête à signer.
Rabby m'explique les conséquences de la signature d'une transaction pour échanger la totalité de mes « BITCOINS » (le symbole d'un memecoin ERC20 dont le nom complet est apparemment « HarryPotterObamasonic10inu ») contre de l'ETH.
Edit 2024.02.02 : une version précédente de ce billet qualifiait ce jeton d'escroquerie visant à se faire passer pour un bitcoin. Non, c'est un memecoin. Toutes mes excuses pour cette confusion.
Potentiellement, ce type d'outils pourrait être suralimenté grâce à l'IA. L'IA pourrait fournir une explication bien plus complète et plus conviviale du type de dapp auquel vous participez, des conséquences des opérations plus complexes que vous signez, de l'authenticité d'un jeton en particulier (par ex. BITCOIN n'est pas simplement une chaîne de caractères, c'est normalement le nom d'une crypto-monnaie majeure, qui n'est pas un jeton ERC20 et dont le prix est bien supérieur à 0,045 dollar, et un LLM moderne le saurait), et ainsi de suite. Certains projets commencent à aller dans cette direction (par exemple, le portefeuille LangChain, qui utilise l'IA comme interface principale). À mon avis, les interfaces purement basées sur l'IA sont probablement trop risquées pour le moment car elles augmentent le risque d'autres types d'erreurs, mais l'IA complétant une interface plus conventionnelle est de plus en plus viable.
Il y a un risque particulier qui mérite d'être mentionné. J'y reviendrai plus en détail dans la section « L'IA comme règle du jeu » ci-dessous, mais le problème général est l'apprentissage automatique contradictoire : si un utilisateur a accès à un assistant IA dans un portefeuille open source, les méchants auront également accès à cet assistant IA, et ils auront donc des possibilités illimitées d'optimiser leurs escroqueries pour ne pas déclencher les défenses de ce portefeuille. Toutes les IA modernes ont des bugs quelque part, et il n'est pas difficile de les détecter lors d'un processus d'entraînement, même si l'accès au modèle est limité.
C'est là que « les IA participant à des micro-marchés en chaîne » fonctionnent le mieux : chaque IA est vulnérable aux mêmes risques, mais vous créez intentionnellement un écosystème ouvert composé de dizaines de personnes qui les itèrent et les améliorent constamment. De plus, chaque IA est fermée : la sécurité du système repose sur l'ouverture des règles du jeu, et non sur le fonctionnement interne de chaque joueur.
Résumé : L'IA peut aider les utilisateurs à comprendre ce qui se passe en langage clair, elle peut leur servir de tuteur en temps réel, elle peut protéger les utilisateurs contre les erreurs, mais soyez avertie lorsque vous essayez de l'utiliser directement contre des désinformateurs et des escrocs malveillants.
Passons maintenant à l'application qui intéresse beaucoup de monde, mais qui, selon moi, est la plus risquée, et celle à laquelle nous devons faire preuve de la plus grande prudence : ce que j'appelle les IA fait partie des règles du jeu. Cela est dû à l'engouement suscité par les « juges IA » au sein des élites politiques traditionnelles (par ex. voir cet article sur le site du « World Government Summit »), et il existe des analogues à ces souhaits dans les applications blockchain. Si un contrat intelligent basé sur la blockchain ou un DAO doit prendre une décision subjective (par exemple, est-ce qu'un produit de travail en particulier est acceptable dans un contrat de travail contre rémunération ? Quelle est la bonne interprétation d'une constitution en langage naturel, telle que la Loi des chaînes de l'optimisme ?) , pourriez-vous simplement intégrer une IA au contrat ou à une DAO pour aider à faire appliquer ces règles ?
C'est là que l'apprentissage automatique contradictoire va représenter un défi extrêmement difficile. L'argument de base en deux phrases pour expliquer la raison est le suivant :
Si un modèle d'IA jouant un rôle clé dans un mécanisme est fermé, vous ne pouvez pas vérifier son fonctionnement interne. Ce n'est donc pas mieux qu'une application centralisée. Si le modèle d'IA est ouvert, un attaquant peut le télécharger et le simuler localement, et concevoir des attaques fortement optimisées pour tromper le modèle, qu'il pourra ensuite rejouer en direct sur le réseau.
Exemple d'apprentissage automatique contradictoire. Source : researchgate.net
Maintenant, les lecteurs assidus de ce blog (ou les habitants du cryptoverse) sont peut-être déjà en train de me prendre de l'avance et se disent : mais attendez ! Nous avons des preuves de connaissance zéro et d'autres formes de cryptographie vraiment géniales. Nous pouvons sûrement faire de la cryptographie et masquer le fonctionnement interne du modèle afin que les attaquants ne puissent pas optimiser les attaques, tout en prouvant que le modèle est correctement exécuté et qu'il a été construit selon un processus d'entraînement raisonnable sur un ensemble raisonnable de données sous-jacentes !
Normalement, c'est exactement le type de pensée que je défends à la fois sur ce blog et dans mes autres écrits. Mais dans le cas des calculs liés à l'IA, il y a deux objections majeures :
Ce sont deux terriers à lapins compliqués, alors abordons chacun d'eux à tour de rôle.
Les gadgets cryptographiques, en particulier ceux à usage général tels que zk-SNARKS et MPC, sont très onéreux. Il faut quelques centaines de millisecondes pour qu'un client vérifie directement un bloc Ethereum, mais générer un ZK-SNARK pour prouver l'exactitude d'un tel bloc peut prendre des heures. Les frais généraux d'autres gadgets cryptographiques, comme le MPC, peuvent être encore pires. Le calcul par IA coûte déjà cher : les LLM les plus puissants peuvent générer des mots individuels un peu plus vite que les humains ne peuvent les lire, sans parler des coûts de calcul souvent de plusieurs millions de dollars liés à l'entraînement des modèles. La différence de qualité entre les modèles haut de gamme et les modèles qui essaient de réduire les coûts de formation ou le nombre de paramètres est importante. À première vue, c'est une très bonne raison de se méfier de l'ensemble du projet qui vise à ajouter des garanties à l'IA en l'intégrant à la cryptographie.
Heureusement, l'IA est un type de calcul très spécifique, ce qui lui permet de bénéficier de toutes sortes d'optimisations dont les types de calcul plus « non structurés » tels que zK-EVMS ne peuvent pas bénéficier. Examinons la structure de base d'un modèle d'IA :
Habituellement, un modèle d'IA consiste principalement en une série de multiplications matricielles entrecoupées d'opérations non linéaires par élément, comme la fonction ReLu(y = max (x, 0)). D'un point de vue asymptotique, les multiplications matricielles occupent la majeure partie du travail : pour multiplier deux matrices N*N, il faut
temps, alors que le nombre d'opérations non linéaires est bien moindre. C'est très pratique pour la cryptographie, car de nombreuses formes de cryptographie permettent d'effectuer des opérations linéaires (ce que sont les multiplications matricielles, du moins si vous chiffrez le modèle mais pas les entrées de celui-ci) presque « gratuitement ».
Si vous êtes cryptographe, vous avez probablement déjà entendu parler d'un phénomène similaire dans le contexte du chiffrement homomorphe: effectuer des ajouts sur des textes chiffrés est très facile, mais les multiplications sont incroyablement difficiles et nous n'avons trouvé aucun moyen de le faire avec une profondeur illimitée avant 2009.
Pour les zk-SNARKS, l'équivalent est celui de protocoles comme celui-ci datant de 2013, qui permet de prouver des multiplications matricielles de moins de 4 fois plus rapidement. Malheureusement, la surcharge sur les couches non linéaires finit par être importante, et les meilleures implémentations en pratique indiquent une surcharge d'environ 200 fois. Mais il y a de l'espoir que cela pourra être considérablement réduit grâce à de nouvelles recherches. Consultez cette présentation de Ryan Cao pour une approche récente basée sur GKR, et ma propre explication simplifiée du fonctionnement du composant principal de GKR.
Mais pour de nombreuses applications, nous ne voulons pas simplement prouver qu'une sortie d'IA a été calculée correctement, nous voulons également masquer le modèle. Il existe une approche naïve à ce sujet : vous pouvez diviser le modèle de manière à ce qu'un ensemble de serveurs différent stocke chaque couche de manière redondante, en espérant que certains serveurs divulguant certaines couches ne divulguent pas trop de données. Mais il existe également des formes de calcul multipartites spécialisées étonnamment efficaces.
Un schéma simplifié de l'une de ces approches, qui consiste à garder le modèle privé tout en rendant les entrées publiques. Si nous voulons garder le modèle et les entrées privés, nous le pouvons, même si c'est un peu plus compliqué : voir les pages 8 et 9 de l'article.
Dans les deux cas, la morale de l'histoire est la même : les multiplications matricielles constituent la partie la plus importante d'un calcul basé sur l'IA. Il est donc possible de créer des zk-SNARK ou des MPC (ou même des FHE) très efficaces. La charge totale liée à l'intégration de l'IA dans des boîtiers cryptographiques est donc étonnamment faible. En général, ce sont les couches non linéaires qui constituent le plus gros goulot d'étranglement malgré leur petite taille ; peut-être que de nouvelles techniques, telles que les arguments de recherche, peuvent être utiles.
Passons maintenant à l'autre gros problème : le type d'attaques que vous pouvez lancer même si le contenu du modèle reste privé et que vous n'avez qu'un « accès API » au modèle. Citant un article de 2016:
De nombreux modèles d'apprentissage automatique sont vulnérables à des exemples contradictoires : des entrées spécialement conçues pour qu'un modèle d'apprentissage automatique produise une sortie incorrecte. Les exemples contradictoires qui concernent un modèle affectent souvent un autre modèle, même si les deux modèles ont des architectures différentes ou ont été entraînés selon des ensembles d'apprentissage différents, à condition que les deux modèles aient été entraînés pour effectuer la même tâche. Un attaquant peut donc créer son propre modèle de substitution, créer des exemples contradictoires à l'encontre de celui-ci et le transférer vers un modèle de victime, avec très peu d'informations sur la victime.
Accédez en boîte noire à un « classificateur cible » pour entraîner et affiner votre propre « classificateur inféré » stocké localement. Ensuite, générez localement des attaques optimisées contre le classificateur inféré. Il s'avère que ces attaques vont souvent à l'encontre du classificateur de cibles d'origine. Source du diagramme.
Potentiellement, vous pouvez même créer des attaques en ne connaissant que les données d'entraînement, même si vous n'avez que peu ou pas d'accès au modèle que vous essayez d'attaquer. En 2023, ce type d'attaques continue de poser un grave problème.
Pour limiter efficacement ce type d'attaques en boîte noire, nous devons faire deux choses :
Le projet qui a obtenu le plus de résultats sur le premier est peut-être Worldcoin, dont j'analyse longuement une version antérieure (parmi d'autres protocoles) ici. Worldcoin utilise de nombreux modèles d'IA au niveau du protocole, pour (i) convertir les scans de l'iris en de courts « codes d'iris » faciles à comparer en termes de similitude, et (ii) vérifier que l'objet scanné est bien un être humain. Le principal moyen de défense sur lequel Worldcoin s'appuie est qu'il ne permet à personne de simplement utiliser le modèle d'IA : il utilise plutôt du matériel fiable pour s'assurer que le modèle n'accepte que les entrées signées numériquement par la caméra de l'orbe.
L'efficacité de cette approche n'est pas garantie : il s'avère que vous pouvez lancer des attaques contradictoires contre l'IA biométrique en utilisant des patchs physiques ou des bijoux que vous pouvez apposer sur votre visage :
Portez un vêtement supplémentaire sur votre front pour échapper à la détection ou même vous faire passer pour quelqu'un d'autre. Source.
Mais l'espoir est que si vous combinez toutes les défenses, si vous masquez le modèle d'IA lui-même, si vous limitez considérablement le nombre de requêtes et si vous demandez à chaque requête d'être authentifiée d'une manière ou d'une autre, vous pourrez lancer des attaques contradictoires suffisamment difficiles pour que le système soit sécurisé. Dans le cas de Worldcoin, le renforcement de ces autres défenses pourrait également réduire sa dépendance à l'égard d'un matériel fiable, renforçant ainsi la décentralisation du projet.
Et cela nous amène à la deuxième partie : comment masquer les données d'entraînement ? C'est là que « des DAO pour gouverner démocratiquement l'IA » peut prendre tout son sens : nous pouvons créer une DAO en chaîne qui régit le processus permettant de déterminer qui est autorisé à soumettre des données de formation (et quelles attestations sont requises sur les données elles-mêmes), qui est autorisé à effectuer des requêtes et combien, et utiliser des techniques cryptographiques telles que le MPC pour crypter l'ensemble du processus de création et d'exécution de l'IA, de l'entrée finale d'entraînement de chaque utilisateur jusqu'au sortie de chaque requête. Ce DAO pourrait simultanément répondre à l'objectif très populaire d'indemniser les personnes qui soumettent des données.
Il est important de réaffirmer que ce plan est très ambitieux et qu'il peut s'avérer irréalisable de plusieurs manières :
L'une des raisons pour lesquelles je n'ai pas commencé cette section par d'autres gros avertissements rouges disant « NE JUGEZ PAS L'IA, C'EST DYSTOPIQUE », c'est que notre société est déjà très dépendante de juges centralisés et irresponsables de l'IA : des algorithmes qui déterminent quels types de publications et d'opinions politiques sont boostés et déboostés, voire censurés, sur les réseaux sociaux. Je pense que renforcer cette tendance à ce stade n'est pas une bonne idée, mais je ne pense pas qu'il y ait de fortes chances que le fait que la communauté de la blockchain expérimente davantage les IA contribue à aggraver les choses.
En fait, il existe des moyens assez simples et peu risqués que la technologie cryptographique peut améliorer même ces systèmes centralisés existants, ce en quoi je suis confiante. Une technique simple est l'IA vérifiée avec publication différée : lorsqu'un site de réseau social établit un classement des publications basé sur l'IA, il peut publier un ZK-SNARK prouvant le hash du modèle qui a généré ce classement. Le site pourrait s'engager à révéler ses modèles d'IA avec un délai d'un an, par exemple. Une fois qu'un modèle est révélé, les utilisateurs peuvent vérifier le hachage pour s'assurer que le bon modèle a été publié, et la communauté peut effectuer des tests sur le modèle pour vérifier son équité. Le retard de publication ferait en sorte qu'il soit déjà obsolète au moment où le modèle sera dévoilé.
Donc, par rapport au monde centralisé, la question n'est pas de savoir si nous pouvons faire mieux, mais de combien. Dans le monde décentralisé, il est toutefois important de faire attention : si quelqu'un crée, par exemple, un marché de prédiction ou un stablecoin utilisant un oracle IA, et qu'il s'avère que l'oracle est attaquable, c'est une énorme somme d'argent qui pourrait disparaître en un instant.
Si les techniques ci-dessus pour créer une IA privée décentralisée évolutive, dont le contenu est une boîte noire inconnue de tous, peuvent réellement fonctionner, elles pourraient également être utilisées pour créer des IA dont l'utilité va au-delà des blockchains. L'équipe du protocole NEAR en fait l'un des principaux objectifs de ses travaux en cours.
Il y a deux raisons de le faire :
Il convient également de noter qu' « utiliser des incitations cryptographiques pour inciter à améliorer l'IA » peut être fait sans avoir à utiliser la cryptographie pour la chiffrer complètement : des approches comme BitTensor entrent dans cette catégorie.
Maintenant que les blockchains et les IA gagnent en puissance, les cas d'utilisation se multiplient à l'intersection de ces deux domaines. Cependant, certains de ces cas d'utilisation sont bien plus logiques et plus robustes que d'autres. En général, les cas d'utilisation dans lesquels le mécanisme sous-jacent continue d'être conçu à peu près comme auparavant, mais où les acteurs individuels deviennent des IA, ce qui permet au mécanisme de fonctionner efficacement à une échelle bien plus micrométrique, sont les plus prometteurs dans l'immédiat et les plus faciles à mettre en œuvre.
Les applications les plus difficiles à mettre en œuvre sont celles qui tentent d'utiliser des blockchains et des techniques cryptographiques pour créer un « singleton » : une IA fiable et décentralisée sur laquelle certaines applications peuvent s'appuyer pour une raison ou une autre. Ces applications sont prometteuses, à la fois en termes de fonctionnalités et en termes d'amélioration de la sécurité de l'IA afin d'éviter les risques de centralisation associés à des approches plus traditionnelles de ce problème. Mais les hypothèses sous-jacentes peuvent également échouer de nombreuses manières ; il convient donc de faire preuve de prudence, en particulier lors du déploiement de ces applications dans des contextes à forte valeur et à haut risque.
J'ai hâte de voir de nouvelles tentatives de cas d'utilisation constructifs de l'IA dans tous ces domaines, afin que nous puissions voir lesquels sont réellement viables à grande échelle.