Mira: Construire la confiance dans la vérification des résultats de l'IA

Intermédiaire1/14/2025, 11:19:38 AM
Ces dernières années, l'avancée rapide de l'IA générative a introduit de nouvelles exigences en matière d'infrastructure et de flux de travail, en particulier en matière de validation et d'évaluation. La fiabilité des applications d'IA est étroitement liée à la confiance des utilisateurs, et Mira est dédié à aborder cette question fondamentale grâce à un réseau décentralisé, établissant de nouvelles normes de l'industrie pour la validation et l'évaluation de l'IA.

Transférer le titre original : Mira: Trustless Verified AI

TL;DR

  • La vérification des sorties est essentielle pour garantir que l'IA fonctionne de manière fiable.
  • Mira construit un réseau de niveau 1 qui offre une vérification sans confiance, évolutive et précise des sorties de l'IA.
  • Réduire les hallucinations et les biais en même temps est un exercice délicat d'équilibre. Mira y parvient en exploitant la sagesse collective des modèles d'IA.
  • Le système de vérification de Mira repose sur deux principes de conception fondamentaux : (1) Décomposer les sorties de l'IA en morceaux plus petits et facilement vérifiables, et (2) Utiliser un ensemble de modèles pour vérifier chaque morceau.
  • La taille de marché initiale de Mira est liée à LLMOps, mais son marché total adressable pourrait s'étendre à l'ensemble de l'IA car chaque application d'IA aura besoin de sorties plus fiables.
  • Mira alimente déjà la vérification de l'IA pour plusieurs applications d'IA avec plus de 200 000 utilisateurs.
  • L'objectif ultime de Mira est de devenir un modèle de fondation synthétique, se branchant sans problème sur tous les principaux fournisseurs pour fournir des sorties pré-vérifiées via une seule API.

Hallucinations : une expérience impliquant la perception apparente de quelque chose qui n'est pas présent.

Andrej Karpathy appelle l'IA des «machines de rêve». Il pense que les hallucinations - ces moments où l'IA génère en toute confiance des choses qui ne sont pas réelles - sont une fonctionnalité, pas un bug. Il est futile de tenter de les éliminer complètement. Et honnêtement, il y a quelque chose de poétique à cela.

Les grands modèles linguistiques (LLM) sont un artiste, un créateur. Il rêve en code, génère des idées à partir de rien et donne un sens aux données. Mais pour que l'IA passe des beaux rêves à des applications pratiques et quotidiennes, nous devons maîtriser ces hallucinations.

Les taux d'erreur pour les LLM restent élevés pour de nombreuses tâches, atteignant souvent environ 30 %. À ce niveau, les LLM nécessitent encore l'intervention humaine pour atteindre un niveau d'exactitude utilisable.

Mais lorsque nous atteignons cette précieuse précision de 99.x % - où les résultats sont fiables sans surveillance humaine - la magie opère. C'est le seuil où l'IA atteint une fiabilité de niveau humain, débloquant un univers infini de cas d'utilisation auparavant inaccessibles.

Atteindre ce niveau de précision, cependant, n'est pas une mince affaire. Cela demande un effort d'ingénierie et d'innovation incessant.

L'histoire de @Mira_Network commence ici. Mais avant de plonger, prenons un moment pour parler du développement de LLM - et pourquoi les vérifications sont en passe de devenir la prochaine grande tendance en matière d'IA.

Comment naît un LLM

Le développement de LLM est la dernière itération du parcours de l'apprentissage profond, distinct des pratiques de développement de logiciels traditionnels que nous avons affinées au cours des 50 dernières années. Les LLM, qui existent depuis environ trois ans seulement, renversent complètement la situation, passant d'une pensée déterministe (si X, alors Y) à un raisonnement probabiliste (si X, alors... peut-être Y?).

Cela signifie que l'infrastructure pour un monde piloté par l'IA exige un tout nouvel ensemble d'outils et de workflows. Pourtant, bon nombre de ces outils sont encore enfermés dans les laboratoires de recherche qui ont créé les LLMs.

La bonne nouvelle est que ces outils commencent à se propager dans le domaine public, ouvrant un monde de possibilités pour les développeurs partout.

À la fin de ce nouveau flux de travail se trouve une pièce maîtresse du puzzle: les évaluations et les vérifications. Aujourd'hui, notre attention se porte sur celles-ci. Elles répondent à une question fondamentale: l'IA fonctionne-t-elle bien?

Vérification = Confiance

La confiance est la base de tout grand produit d'IA.

Alors que l'IA devient une partie de plus en plus intégrante de nos vies, la technologie elle-même reste fragile. Des erreurs se produisent, et lorsque cela se produit, la confiance s'érode rapidement. Les utilisateurs s'attendent à ce que l'IA soit précise, impartiale et réellement utile, mais sans systèmes fiables en place pour garantir cela, la frustration monte - et la frustration conduit à la rotation.

C'est là que les vérifications entrent en jeu.

Les vérifications servent de garantie. Ils constituent la couche d'assurance qualité sur laquelle les développeurs comptent pour affiner les résultats et construire des systèmes auxquels les utilisateurs peuvent faire confiance.

Mira s'attaque à un problème central de Web2 avec la transparence sans confiance de la cryptographie. En exploitant un réseau décentralisé de nœuds vérificateurs, Mira garantit que les sorties d'IA sont vérifiées de manière précise et indépendante.

Entrer Mira

Supposons que vous ayez un paragraphe de sortie d'un LLM sur la ville de Paris. Comment vérifiez-vous qu'il est exact ? C'est difficile à faire car il y a tellement de nuances autour de tout, des revendications à la structure du contenu en passant par le style d'écriture.

C'est là que Mira intervient.

La vision de Mira est audacieuse: créer un réseau de niveau 1 qui offre une vérification sans confiance, évolutive et précise des sorties de l'IA. En exploitant la sagesse collective, Mira réduit les biais et les hallucinations, résolvant des problèmes fondamentaux tels que l'équité et le coût tout en prouvant comment la blockchain peut réellement améliorer l'IA.

Source: Mira

Les premiers résultats sont prometteurs. Dans un récentétude publiée sur Arxiv, Mira a démontré que l'utilisation de plusieurs modèles pour générer des sorties et exiger un consensus augmente significativement la précision. La précision a atteint 95,6% avec trois modèles, contre 73,1% pour une seule sortie de modèle.

Deux éléments clés de conception alimentent l'approche de Mira :

  • Fragmentation et binarisation du contenu: Décomposition des sorties d'IA complexes en morceaux plus petits et indépendamment vérifiables.
  • Diversité des modèles : Utilisation de plusieurs modèles pour améliorer la fiabilité et minimiser les biais.

#1: Transformation du contenu via la binarisation & le sharding

Les sorties générées par l'IA vont des simples déclarations aux essais détaillés, grâce au coût quasi nul de la génération de contenu. Mais cette abondance de complexité crée un défi : comment garantir l'exactitude de ces sorties diverses ?

La solution de Mira est simple : décomposez-la.

@Mira_Networktransforme un contenu généré par l'IA complexe en morceaux plus petits et digestes que les modèles d'IA peuvent passer en revue de manière objective dans un processus appelé sharding.

En standardisant les sorties et en les divisant en revendications discrètes et vérifiables, Mira garantit que chaque élément peut être évalué de manière cohérente, éliminant l'ambiguïté qui affecte souvent les évaluations.

Par exemple, considérez cette déclaration composée :

La photosynthèse se produit dans les plantes pour convertir la lumière du soleil en énergie, et les abeilles jouent un rôle critique dans la pollinisation en transférant du pollen entre les fleurs.

En surface, il semble simple de vérifier. Mais lorsqu'il est remis à plusieurs modèles, des bizarreries d'interprétation pourraient conduire à des réponses différentes. La transformation du contenu de Mira via le sharding résout cela en divisant la déclaration en deux revendications indépendantes :

  1. La photosynthèse se produit dans les plantes pour convertir la lumière du soleil en énergie.
  2. Les abeilles jouent un rôle critique dans la pollinisation en transférant le pollen entre les fleurs.

Une fois segmentée, chaque réclamation subit une binarisation, où elle est convertie en une question à choix multiple. Ces questions sont distribuées à un réseau de nœuds exécutant des modèles d'IA. En utilisant la méthode de vérification en ensemble de Mira, les modèles collaborent pour évaluer et confirmer la validité de chaque réclamation.

Actuellement, les capacités de fractionnement du contenu et de binarisation de Mira sont axées sur les entrées de texte. D'ici début 2025, ces processus s'étendront pour prendre en charge les entrées multimodales, telles que les images et les vidéos.

#2: Un Ensemble, pas Un Individu

Mira a développé un système de vérification avancé qui combine les forces de plusieurs modèles d'IA pour évaluer la qualité des sorties de l'IA.

Décortiquons cela.

Les évaluations automatisées traditionnelles reposent souvent sur un seul grand modèle linguistique (LLM), comme GPT-4, en tant qu'arbitre ultime de la qualité. Bien que fonctionnelle, cette approche présente des défauts significatifs : elle est coûteuse, sujette aux biais et limitée par les particularités et la "personnalité" inhérentes aux modèles.

La percée de Mira consiste à passer d'une dépendance à un seul modèle massif à l'utilisation de plusieurs modèles.ensemble de LLM divers. Cet ensemble excelle dans les tâches où l'exactitude des faits est plus importante que le style créatif, réduisant les taux d'erreur et fournissant des vérifications plus fiables et cohérentes.

Les techniques d'ensemble ont été bien étudiées dans des tâches d'apprentissage automatique comme la classification, et Mira les introduit maintenant dans la vérification.

Au cœur du système de Mira se trouve le Panel des vérificateurs LLM (PoLL) - un réseau collaboratif de modèles qui travaillent ensemble pour vérifier les sorties. Pensez-y comme un panel diversifié d'experts donnant leur avis sur une décision plutôt que de laisser cela à un seul juge potentiellement partial.

Et ce n'est pas juste un vœu pieux, c'est basé sur la recherche. Jetez un œil au tableau ci-dessous :

Une étude CoherepubliéEn avril 2024 a démontré qu'un groupe de trois modèles plus petits - GPT-3.5, Claude-3 Haiku et Command R - étaient plus étroitement alignés avec les jugements humains que GPT-4 seul. Remarquablement, cette méthode d'ensemble était également 7 fois moins chère.

Mira met maintenant cette recherche en action, déployant sa méthode de vérification en ensemble à grande échelle. Les résultats internes qu'ils ont partagés jusqu'à présent sont convaincants :

• Les taux d'erreur sont passés de 80% à 5% pour les tâches de raisonnement complexe.

• 5x améliorations de vitesse et de coût par rapport à la vérification humaine.

Ce n'est pas une petite chose. En utilisant des mécanismes de consensus, l'ensemble diversifié de modèles de Mira filtre efficacement les hallucinations et équilibre les biais des modèles individuels. Ensemble, ils offrent quelque chose de plus grand que la somme de leurs parties : des vérifications plus rapides, moins chères et plus alignées sur nos besoins.

Comment ça marche - Conception architecturale

Pour récapituler, le système de vérification de Mira est basé sur deux principes fondamentaux de conception :

  • Divisez les sorties de l'IA en morceaux plus petits et facilement vérifiables.
  • Vérifiez chaque pièce à l'aide d'un ensemble de divers modèles d'IA.

Maintenir un ensemble diversifié de modèles est essentiel pour des sorties de haute qualité, ce qui rend la conception de Mira idéale pour une architecture décentralisée. Éliminer les points uniques de défaillance est crucial pour tout produit de vérification.

Mira utilise une approche basée sur la blockchain pour garantir qu'aucune entité unique ne peut manipuler les résultats. Le principe est simple : les sorties générées par l'IA doivent être vérifiées tout comme les changements d'état de la blockchain.

La vérification se fait à travers un réseau de nœuds indépendants, avec des opérateurs économiquement incités à effectuer des vérifications précises. En alignant les récompenses avec l'honnêteté, le système de Mira décourage les mauvais acteurs et garantit des résultats fiables.

Voici comment cela fonctionne :

  1. Un développeur d'IA crée un ensemble de données de sorties à partir de son modèle et le soumet à Mira via une API.
  2. Mira transforme l'ensemble de données en questions à choix multiples (binarisation) et le divise en morceaux plus petits et plus gérables (sharding).
  3. Ces fragments sont distribués aux nœuds vérificateurs du réseau Mira. Chaque nœud reçoit un fragment différent à vérifier.
  4. Chaque nœud examine indépendamment les questions de son fragment assigné et soumet ses résultats au réseau.
  5. Les nœuds affectés au même fragment parviennent à un consensus sur les résultats de la vérification, qui sont ensuite agrégés dans l'évaluation finale.
  6. Les résultats des vérifications finales sont renvoyés au développeur d'IA, accompagnés d'un certificat de vérification, une preuve cryptographique de l'évaluation. Ce certificat est stocké sur la blockchain, créant un enregistrement de vérification vérifiable et inviolable.

Mira assure la confidentialité des données en divisant les données d'entrée en morceaux plus petits, garantissant qu'aucun nœud unique n'a accès à l'ensemble des données.

Pour une sécurité supplémentaire, Mira prend en charge des niveaux de confidentialité dynamiques, permettant aux utilisateurs d'ajuster le nombre de shards en fonction de la sensibilité des données. Bien que des niveaux de confidentialité plus élevés nécessitent plus de sharding (et donc des coûts plus élevés), ils offrent une confidentialité supplémentaire pour les utilisateurs manipulant des informations sensibles.

Chaque vérification qu'un nœud effectue est enregistrée sur la blockchain, créant ainsi un enregistrement transparent et vérifiable du processus de vérification. Ce grand livre immutable garantit la confiance et la responsabilité que les approches traditionnelles, non basées sur la blockchain, ne peuvent pas atteindre.

Cela établit une nouvelle norme pour la vérification sécurisée et impartiale de l'IA.

Veiller à ce que les nœuds fassent leur travail

Dans le réseau décentralisé de Mira, le travail honnête est récompensé.

Les experts peuvent déployer des modèles d'IA spécialisés via un logiciel de nœud et gagner des jetons pour des vérifications précises. Les développeurs d'IA, à leur tour, paient des frais par vérification, créant une boucle économique autosuffisante entre l'offre et la demande.

Cette approche permet de combler la valeur réelle des flux de travail Web2 dans l'écosystème Web3, récompensant directement les participants tels que les fournisseurs d'inférence et les créateurs de modèles.

Mais les incitations ne sont pas sans défis. Dans tout système décentralisé, les mauvais acteurs essaieront d'exploiter le réseau en soumettant de faux résultats pour gagner des récompenses sans faire le travail.

Alors, comment nous assurons-nous que les nœuds effectuent réellement leurs tâches avec précision et honnêteté ?

Pour maintenir l'intégrité, Mira utilise la preuve de vérification, un mécanisme inspiré du proof-of-work de Bitcoin mais conçu pour l'IA. Au lieu d'extraire des blocs, les nœuds doivent prouver qu'ils ont accompli des tâches de vérification pour participer au processus de consensus.

Voici comment ça fonctionne :

  • Exigences de mise en jeu : Chaque nœud doit miser des jetons en tant qu'engagement économique. Si un nœud soumet à plusieurs reprises des résultats incorrects, une partie de sa mise est réduite en tant que pénalité. Cela garantit que les nœuds ont une participation dans le jeu et une raison d'agir honnêtement.
  • Pénalités pour le travail fictif : les nœuds qui soumettent des résultats fictifs - comme sauter des calculs ou générer des sorties aléatoires - font face à des pénalités. La fraude est détectée lorsque leurs résultats s'écartent de manière significative du consensus de manière constante (en supposant que la plupart des nœuds sont honnêtes).

La preuve de vérification crée un système équilibré dans lequel les nœuds sont économiquement motivés à effectuer des vérifications de haute qualité. Ce mécanisme garantit que le réseau reste sécurisé et fiable dans le temps.

Défis et compromis

Voici la question : Si l'approche de Mira est si efficace, pourquoi tout le monde ne le fait-il pas ?

La réponse réside dans les compromis et les complexités de la mise en œuvre d'un tel système dans le monde réel. Atteindre le parfait équilibre entre des évaluations rapides et précises et la gestion des subtilités de plusieurs modèles n'est pas une mince affaire.

L'un des plus grands obstacles de Mira est la latence. Bien que l'utilisation d'ensembles de modèles permette aux vérifications de s'exécuter en parallèle, la synchronisation des résultats et l'atteinte d'un consensus introduisent des retards. Le processus n'est aussi rapide que le nœud le plus lent.

Actuellement, cela rend Mira idéale pour le traitement par lots des sorties d'IA - des cas d'utilisation où des résultats en temps réel ne sont pas nécessaires. À mesure que le réseau se développe avec plus de nœuds et de disponibilité de calcul, l'objectif à long terme est de parvenir à des vérifications en temps réel, élargissant ainsi l'applicabilité de Mira à un plus large éventail de scénarios.

Au-delà de la latence, d'autres défis incluent :

Complexité de l'ingénierie : orchestrer des évaluations à travers plusieurs modèles et s'assurer que le mécanisme de consensus fonctionne correctement exige des efforts d'ingénierie importants.

Exigences de calcul plus élevées : Même lorsque l'on utilise des modèles plus petits, les exécuter ensemble en ensembles augmente les demandes de calcul.

Bonne conception du mécanisme de consensus : La façon dont le consensus est atteint - par vote majoritaire, par notation pondérée ou par d'autres méthodes - joue un rôle crucial dans la fiabilité du système. Dans les cas ambigus, les ensembles peuvent avoir du mal à s'aligner, ce qui entraîne des résultats incohérents.

Applications & Use Cases for Mira

Source : Mira

L'API de Mira s'intègre facilement à n'importe quelle application, tout comme le GPT-4o d'OpenAI. Elle est agnostique aux applications grand public et B2B, ce qui en fait une solution polyvalente pour divers cas d'utilisation. Aujourd'hui, plus d'une douzaine d'applications utilisent l'infrastructure de Mira.

Intégrations des consommateurs

Du côté des consommateurs, Mira alimente déjà la vérification de l'IA pour plusieurs applications IA de stade précoce :

  • Creato: Une application de découverte et de partage de citations quotidiennes personnalisées et de messages d'état, au service de plus de 120 000 utilisateurs.
  • Astro247: Une plateforme où les utilisateurs discutent avec un astrologue IA pour des horoscopes personnalisés et des prédictions.
  • Amor: Une application compagnon IA permettant aux utilisateurs d'interagir avec des personnages d'IA fantastiques pour des conversations immersives.
  • Klok: une application de chat axée sur la crypto par Mira qui répond aux questions sur les cryptos en utilisant des API telles que CoinMarketCap et des données extraites de sites de cryptos et de médias d'actualités.

Oracle Delphiest la dernière et peut-être la plus avancée intégration. Cet assistant de recherche alimenté par l'IA permet @Delphi_Digitalles membres peuvent interagir directement avec le contenu de recherche, poser des questions, clarifier des points, intégrer des flux de prix et ajuster le contenu à différents niveaux de complexité.

Delphi Oracle utilise la technologie de vérification de Mira Network pour fournir des réponses fiables et précises. En vérifiant les réponses à travers plusieurs modèles, Mira réduit les taux d'hallucination de ~30% à moins de 5%, garantissant ainsi une base solide de confiance.

Au cœur de Delphi Oracle se trouve un routeur de requêtes haute performance

  • Requêtes de prix : Renvoyées directement vers les points de données de marché pour des réponses quasi instantanées.
  • Questions de base : Géré par un système de réponse en cache, équilibrant vitesse et rentabilité.
  • Inquiries complexe : Dirigées vers un pipeline de traitement LLM spécialisé capable de synthétiser des informations provenant de sources multiples.

Ce système de routage intelligent, associé à une mise en cache intelligente, garantit des performances optimales en équilibrant la latence, le coût et la qualité.

Les tests de Mira ont révélé que des modèles plus petits et rentables pouvaient gérer la plupart des requêtes presque aussi bien que des modèles plus grands. Cela s'est traduit par une réduction de 90% des coûts opérationnels, tout en maintenant les réponses de haute qualité auxquelles les utilisateurs s'attendent.

Bien que bon nombre de ces applications grand public soient encore à un stade précoce, elles mettent en évidence la capacité de Mira à s'intégrer de manière transparente et à soutenir des bases d'utilisateurs importantes et actives. Il n'est pas difficile d'imaginer des milliers d'applications se connectant à l'écosystème de Mira, à condition que l'expérience des développeurs reste simple et que la proposition de valeur reste claire.

B2B Applications

Sur le front B2B, Mira se concentre sur des intégrations spécialisées dans des industries où la confiance et la précision sont primordiales, avec un accent initial sur la santé et l'éducation.

Les principales applications comprennent :

  • Santé : des assistants d'IA fournissant des deuxièmes avis fiables et soutenant les médecins dans la prise de décisions critiques.
  • Éducation : assistants d'apprentissage personnalisés qui s'adaptent aux besoins individuels des élèves tout en maintenant une précision factuelle et une conformité avec les programmes d'études.
  • Services juridiques : Systèmes capables de résumer avec précision la jurisprudence et de prédire les résultats juridiques pour rationaliser les flux de travail juridique.

La fin de Mira

L'objectif ultime de Mira est d'offrir des générations vérifiées de manière native, où les utilisateurs se connectent simplement via une API, tout comme OpenAI ou Anthropic, et reçoivent des sorties pré-vérifiées avant qu'elles ne soient renvoyées.

Ils visent à remplacer les API de modèles existants en fournissant des versions hautement fiables de modèles existants (par exemple, Mira-Claude-3.5-Sonnet ou Mira-OpenAI-GPT-4o), améliorées avec une fiabilité intégrée basée sur le consensus.

Taille du marché

L'IA générative est sur un vaisseau spatial. SelonBloombergLe marché devrait croître à un taux de croissance annuel composé de 42%, avec un chiffre d'affaires dépassant 1 billion de dollars d'ici 2030. Dans cette vague massive, les outils qui améliorent la vitesse, la précision et la fiabilité des flux de travail de l'IA captureront une part significative.

À mesure que de plus en plus d'entreprises intègrent des LLM dans leurs flux de travail - allant des chatbots de support client aux assistants de recherche complexes - le besoin de vérifications de modèles robustes devient de plus en plus pressant.

Les organisations chercheront des outils qui peuvent (1) mesurer la précision et la fiabilité du modèle, (2) diagnostiquer les inefficacités promptes et les paramètres, (3) surveiller en continu les performances et les dérives, et (4) garantir la conformité aux cadres réglementaires émergents en matière de sécurité de l'IA.

Cela vous semble familier ? C'est un scénario que nous avons déjà vu avec MLOps (abréviation de 'Machine Learning Operations'). Avec l'essor de l'apprentissage automatique dans les années 2010, les outils de déploiement, de suivi et de maintenance des modèles sont devenus essentiels, créant ainsi un marché de plusieurs milliards de dollars. Avec la montée de l'IA générative, LLMOps suit la même trajectoire.

Capturer ne serait-ce qu'une petite part du marché de plusieurs billions de dollars pourrait propulser ce sous-secteur à plus de 100 milliards de dollars d'ici 2030.

Plusieurs startups Web2 se positionnent déjà, offrant des outils pour annoter les données, affiner les modèles et évaluer les performances:

• Braintrust ($36M raised)

• Vellum AI (5 M$ levés)

• Humanloop (2,8 millions de dollars collectés)

Ces premiers acteurs posent les bases, mais l'espace est fluide. En 2025, nous devrions voir une prolifération de start-ups dans ce secteur. Certaines peuvent se spécialiser dans des métriques d'évaluation de niche (par exemple, la détection des biais et les tests de robustesse), tandis que d'autres élargissent leurs offres pour couvrir l'ensemble du cycle de développement de l'IA.

Les grands acteurs technologiques, tels que les principaux fournisseurs de cloud et les plateformes d'IA, sont susceptibles d'intégrer des fonctionnalités d'évaluation dans leurs offres. Le mois dernier, OpenAI (en anglais seulement)introduit des évaluations directement sur sa plateforme. Pour rester compétitifs, les start-ups doivent se différencier par la spécialisation, la facilité d'utilisation et les analyses avancées.

Mira n'est pas un concurrent direct de ces startups ou des acteurs établis. Au lieu de cela, c'est un fournisseur d'infrastructure qui s'intègre facilement avec les deux via des API. La clé ? Il doit juste fonctionner.

La taille initiale du marché de Mira est liée à LLMOps, mais son marché total adressable s'étendra à l'ensemble de l'IA car chaque application d'IA aura besoin de résultats plus fiables.

Du point de vue de la théorie des jeux, Mira est dans une situation unique. Contrairement à d’autres fournisseurs de modèles comme OpenAI, qui sont contraints de prendre en charge leurs propres systèmes, Mira peut s’intégrer à tous les modèles. Cela positionne Mira comme la couche de confiance pour l’IA, offrant une fiabilité qu’aucun fournisseur ne peut égaler.

Feuille de route 2025

La feuille de route 2025 de Mira vise à équilibrer l'intégrité, la scalabilité et la participation de la communauté sur son chemin vers la pleine décentralisation:

Phase 1: Bootstrapping Trust (Où nous en sommes aujourd'hui)

À un stade précoce, les opérateurs de noeuds vérifiés garantissent la fiabilité du réseau. Des fournisseurs de calcul GPU bien connus servent de première vague d'opérateurs, gérant les opérations initiales et posant des bases solides pour la croissance.

Phase 2: Décentralisation progressive

Mira introduit une duplication conçue, où plusieurs instances du même modèle de vérificateur traitent chaque demande. Bien que cela augmente les coûts de vérification, il est essentiel pour identifier et éliminer les opérateurs malveillants. En comparant les sorties entre les nœuds, les acteurs malveillants sont détectés tôt.

Dans sa forme mature, Mira mettra en œuvre un sharding aléatoire pour distribuer les tâches de vérification. Cela rend la collusion économiquement non viable et renforce la résilience et la sécurité du réseau à mesure qu'il évolue.

Phase 3: Modèle de fondation synthétique

Ici, Mira proposera des générations nativement vérifiées. Les utilisateurs se connecteront via une API, similaire à OpenAI ou Anthropic, et recevront des résultats pré-vérifiés, c’est-à-dire des résultats fiables et prêts à l’emploi sans validation supplémentaire.

Dans les mois à venir, Mira se prépare à plusieurs jalons importants :

  • Lancement de Mira Flows, son produit de flux de travail basé sur l'IA qui permet aux développeurs de construire rapidement des applications basées sur l'IA pilotées par API
  • Testnet public en janvier.
  • Un lancement de jeton est également à l'horizon, prévu pour le T1 2024.

🌈 Programme de Délégation de Noeud

Mira élargit les possibilités d’engagement communautaire par l’entremise de sonProgramme de délégation de nœud. Cette initiative rend le soutien au réseau accessible à tous, aucune expertise technique n'est requise.

Le processus est simple: Vous pouvez louer des ressources informatiques et les déléguer à un groupe sélectionné d'opérateurs de nœuds. Les contributions peuvent varier de 35 $ à 750 $, et des récompenses sont offertes pour soutenir le réseau. Mira gère toute l'infrastructure complexe, de sorte que les délégataires de nœuds peuvent s'asseoir, regarder le réseau se développer et capturer une partie des avantages.

Équipe

Aujourd'hui, Mira dispose d'une équipe réduite mais soudée, principalement axée sur l'ingénierie.

Il y a 3 co-fondateurs:

  1. @karansirdesai (CEO), précédemment dans l'équipe d'investissement Crypto & AI chez Accel et consultant chez BCG
  2. Sid Doddipalli (CTO) est un ancien élève de l'IIT Madras et ancien co-fondateur de Stader Labs, une plateforme de mise en jeu liquide sur Ethereum avec un TVL de plus de 400 M$.
  3. Ninad Naik(Directeur Produit) a occupé des postes de direction en tant que Directeur de la Gestion de Produit chez Uber et en tant que Directeur Général de la division Maison Connectée d'Amazon.

Ensemble, ils combinent le sens aigu de l’investissement, l’innovation technique et le leadership en matière de produits à la vision de Mira en matière de vérification décentralisée de l’IA. Mira a levé 9 millions de dollarstour de financementEn juillet 2024, mené par BITKRAFT et Framework Ventures.

Nos pensées

Il est rafraîchissant de voir une équipe Crypto AI s'attaquer à un problème fondamental de l'IA Web2 - améliorer l'IA - plutôt que de jouer à des jeux spéculatifs dans la bulle de la crypto.

  1. Les vérifications seront le mot à la mode de l'IA en 2025

L’industrie prend conscience de l’importance des vérifications. Se fier aux « vibrations » ne suffit plus. Chaque application et flux de travail d’IA aura bientôt besoin d’un processus de vérification approprié, et il n’est pas exagéré d’imaginer de futures réglementations rendant ces processus obligatoires pour garantir la sécurité.

L'approche de Mira exploite plusieurs modèles pour vérifier indépendamment les sorties, évitant de s'appuyer sur un seul modèle centralisé. Ce cadre décentralisé renforce la confiance et réduit les risques de partialité et de manipulation.

Et réfléchissons à ce qui se passe si nous atteignons une IA généralisée dans les prochaines années (une possibilité réelle).

CommeAnand Iyer (@AIfrom Canonical points out, if AI can subtly manipulate decisions and code, how can we trust the systems testing for these behaviours? Smart people are thinking ahead.La recherche d'Anthropicsouligne l'urgence, mettant en évidence les évaluations comme un outil essentiel pour identifier les capacités potentiellement dangereuses de l'IA avant qu'elles ne se transforment en problèmes.

En permettant une transparence radicale, les blockchains ajoutent une puissante couche de protection contre les systèmes d'IA malveillants. Les mécanismes de consensus sans confiance garantissent que les évaluations de sécurité sont vérifiées par des milliers de nœuds indépendants (comme sur Mira), réduisant considérablement le risque d'attaques Sybil.

  1. Vision ambitieuse avec risque d'exécution

Mira poursuit un énorme marché avec une demande claire pour une solution qui fonctionne. Mais les défis sont réels. Améliorer la latence, la précision et l'efficacité des coûts nécessitera un effort d'ingénierie incessant et du temps. L'équipe devra démontrer de manière cohérente que leur approche est mesurablement meilleure que les alternatives existantes.

L'innovation fondamentale réside dans le processus de binarisation et de fragmentation de Mira. Cette "sauce secrète" promet de relever les défis de l'évolutivité et de la confiance. Pour que Mira réussisse, cette technologie doit tenir sa promesse.

  1. Conception des jetons et la sauce secrète de Mira

Dans tout réseau décentralisé, la conception des jetons et des incitations sont des facteurs déterminants. Le succès de Mira dépendra de la manière dont ces mécanismes alignent les intérêts des participants tout en maintenant l'intégrité du réseau.

Alors que les détails de l'économie des jetons de Mira restent secrets, je m'attends à ce que l'équipe en révèle plus à mesure que le lancement des jetons approche au début de 2025.

Un Avenir Brillant

« Nous avons constaté que les équipes d'ingénierie qui mettent en œuvre de bonnes évaluations avancent beaucoup plus rapidement - jusqu'à 10 fois plus vite - que celles qui se contentent de regarder ce qui se passe en production et d'essayer de les réparer de manière ad hoc », - Ankur Goyal, Braintrust

Dans un monde axé sur l'IA, la confiance est primordiale.

À mesure que les modèles deviennent plus complexes, des vérifications fiables soutiendront chaque grand produit IA. Ils nous aident à lutter contre les hallucinations, à éliminer les biais et à garantir que les sorties de l'IA correspondent aux besoins réels des utilisateurs.

Mira automatise les vérifications, réduit les coûts et la dépendance à l'intervention humaine. Cela permet des itérations plus rapides, des ajustements en temps réel et des solutions évolutives sans blocages.

Finalement, Mira vise à être l'API de confiance, un cadre de vérification décentralisé sur lequel chaque développeur d'IA et chaque application peut compter pour des réponses vérifiées.

C'est audacieux, ambitieux et exactement ce dont le monde de l'IA a besoin.

Merci d'avoir lu, Teng Yan

Avertissement :

  1. Cet article est repris de [gateTeng Yan]. Transmettre le titre original : Mira : Trustless Verified AI. Tous les droits d'auteur appartiennent à l'auteur original [Teng Yan]. S’il y a des objections à cette réimpression, veuillez contacter le Gate Learn équipe, et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité: Les vues et opinions exprimées dans cet article sont uniquement celles de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdite.

Mira: Construire la confiance dans la vérification des résultats de l'IA

Intermédiaire1/14/2025, 11:19:38 AM
Ces dernières années, l'avancée rapide de l'IA générative a introduit de nouvelles exigences en matière d'infrastructure et de flux de travail, en particulier en matière de validation et d'évaluation. La fiabilité des applications d'IA est étroitement liée à la confiance des utilisateurs, et Mira est dédié à aborder cette question fondamentale grâce à un réseau décentralisé, établissant de nouvelles normes de l'industrie pour la validation et l'évaluation de l'IA.

Transférer le titre original : Mira: Trustless Verified AI

TL;DR

  • La vérification des sorties est essentielle pour garantir que l'IA fonctionne de manière fiable.
  • Mira construit un réseau de niveau 1 qui offre une vérification sans confiance, évolutive et précise des sorties de l'IA.
  • Réduire les hallucinations et les biais en même temps est un exercice délicat d'équilibre. Mira y parvient en exploitant la sagesse collective des modèles d'IA.
  • Le système de vérification de Mira repose sur deux principes de conception fondamentaux : (1) Décomposer les sorties de l'IA en morceaux plus petits et facilement vérifiables, et (2) Utiliser un ensemble de modèles pour vérifier chaque morceau.
  • La taille de marché initiale de Mira est liée à LLMOps, mais son marché total adressable pourrait s'étendre à l'ensemble de l'IA car chaque application d'IA aura besoin de sorties plus fiables.
  • Mira alimente déjà la vérification de l'IA pour plusieurs applications d'IA avec plus de 200 000 utilisateurs.
  • L'objectif ultime de Mira est de devenir un modèle de fondation synthétique, se branchant sans problème sur tous les principaux fournisseurs pour fournir des sorties pré-vérifiées via une seule API.

Hallucinations : une expérience impliquant la perception apparente de quelque chose qui n'est pas présent.

Andrej Karpathy appelle l'IA des «machines de rêve». Il pense que les hallucinations - ces moments où l'IA génère en toute confiance des choses qui ne sont pas réelles - sont une fonctionnalité, pas un bug. Il est futile de tenter de les éliminer complètement. Et honnêtement, il y a quelque chose de poétique à cela.

Les grands modèles linguistiques (LLM) sont un artiste, un créateur. Il rêve en code, génère des idées à partir de rien et donne un sens aux données. Mais pour que l'IA passe des beaux rêves à des applications pratiques et quotidiennes, nous devons maîtriser ces hallucinations.

Les taux d'erreur pour les LLM restent élevés pour de nombreuses tâches, atteignant souvent environ 30 %. À ce niveau, les LLM nécessitent encore l'intervention humaine pour atteindre un niveau d'exactitude utilisable.

Mais lorsque nous atteignons cette précieuse précision de 99.x % - où les résultats sont fiables sans surveillance humaine - la magie opère. C'est le seuil où l'IA atteint une fiabilité de niveau humain, débloquant un univers infini de cas d'utilisation auparavant inaccessibles.

Atteindre ce niveau de précision, cependant, n'est pas une mince affaire. Cela demande un effort d'ingénierie et d'innovation incessant.

L'histoire de @Mira_Network commence ici. Mais avant de plonger, prenons un moment pour parler du développement de LLM - et pourquoi les vérifications sont en passe de devenir la prochaine grande tendance en matière d'IA.

Comment naît un LLM

Le développement de LLM est la dernière itération du parcours de l'apprentissage profond, distinct des pratiques de développement de logiciels traditionnels que nous avons affinées au cours des 50 dernières années. Les LLM, qui existent depuis environ trois ans seulement, renversent complètement la situation, passant d'une pensée déterministe (si X, alors Y) à un raisonnement probabiliste (si X, alors... peut-être Y?).

Cela signifie que l'infrastructure pour un monde piloté par l'IA exige un tout nouvel ensemble d'outils et de workflows. Pourtant, bon nombre de ces outils sont encore enfermés dans les laboratoires de recherche qui ont créé les LLMs.

La bonne nouvelle est que ces outils commencent à se propager dans le domaine public, ouvrant un monde de possibilités pour les développeurs partout.

À la fin de ce nouveau flux de travail se trouve une pièce maîtresse du puzzle: les évaluations et les vérifications. Aujourd'hui, notre attention se porte sur celles-ci. Elles répondent à une question fondamentale: l'IA fonctionne-t-elle bien?

Vérification = Confiance

La confiance est la base de tout grand produit d'IA.

Alors que l'IA devient une partie de plus en plus intégrante de nos vies, la technologie elle-même reste fragile. Des erreurs se produisent, et lorsque cela se produit, la confiance s'érode rapidement. Les utilisateurs s'attendent à ce que l'IA soit précise, impartiale et réellement utile, mais sans systèmes fiables en place pour garantir cela, la frustration monte - et la frustration conduit à la rotation.

C'est là que les vérifications entrent en jeu.

Les vérifications servent de garantie. Ils constituent la couche d'assurance qualité sur laquelle les développeurs comptent pour affiner les résultats et construire des systèmes auxquels les utilisateurs peuvent faire confiance.

Mira s'attaque à un problème central de Web2 avec la transparence sans confiance de la cryptographie. En exploitant un réseau décentralisé de nœuds vérificateurs, Mira garantit que les sorties d'IA sont vérifiées de manière précise et indépendante.

Entrer Mira

Supposons que vous ayez un paragraphe de sortie d'un LLM sur la ville de Paris. Comment vérifiez-vous qu'il est exact ? C'est difficile à faire car il y a tellement de nuances autour de tout, des revendications à la structure du contenu en passant par le style d'écriture.

C'est là que Mira intervient.

La vision de Mira est audacieuse: créer un réseau de niveau 1 qui offre une vérification sans confiance, évolutive et précise des sorties de l'IA. En exploitant la sagesse collective, Mira réduit les biais et les hallucinations, résolvant des problèmes fondamentaux tels que l'équité et le coût tout en prouvant comment la blockchain peut réellement améliorer l'IA.

Source: Mira

Les premiers résultats sont prometteurs. Dans un récentétude publiée sur Arxiv, Mira a démontré que l'utilisation de plusieurs modèles pour générer des sorties et exiger un consensus augmente significativement la précision. La précision a atteint 95,6% avec trois modèles, contre 73,1% pour une seule sortie de modèle.

Deux éléments clés de conception alimentent l'approche de Mira :

  • Fragmentation et binarisation du contenu: Décomposition des sorties d'IA complexes en morceaux plus petits et indépendamment vérifiables.
  • Diversité des modèles : Utilisation de plusieurs modèles pour améliorer la fiabilité et minimiser les biais.

#1: Transformation du contenu via la binarisation & le sharding

Les sorties générées par l'IA vont des simples déclarations aux essais détaillés, grâce au coût quasi nul de la génération de contenu. Mais cette abondance de complexité crée un défi : comment garantir l'exactitude de ces sorties diverses ?

La solution de Mira est simple : décomposez-la.

@Mira_Networktransforme un contenu généré par l'IA complexe en morceaux plus petits et digestes que les modèles d'IA peuvent passer en revue de manière objective dans un processus appelé sharding.

En standardisant les sorties et en les divisant en revendications discrètes et vérifiables, Mira garantit que chaque élément peut être évalué de manière cohérente, éliminant l'ambiguïté qui affecte souvent les évaluations.

Par exemple, considérez cette déclaration composée :

La photosynthèse se produit dans les plantes pour convertir la lumière du soleil en énergie, et les abeilles jouent un rôle critique dans la pollinisation en transférant du pollen entre les fleurs.

En surface, il semble simple de vérifier. Mais lorsqu'il est remis à plusieurs modèles, des bizarreries d'interprétation pourraient conduire à des réponses différentes. La transformation du contenu de Mira via le sharding résout cela en divisant la déclaration en deux revendications indépendantes :

  1. La photosynthèse se produit dans les plantes pour convertir la lumière du soleil en énergie.
  2. Les abeilles jouent un rôle critique dans la pollinisation en transférant le pollen entre les fleurs.

Une fois segmentée, chaque réclamation subit une binarisation, où elle est convertie en une question à choix multiple. Ces questions sont distribuées à un réseau de nœuds exécutant des modèles d'IA. En utilisant la méthode de vérification en ensemble de Mira, les modèles collaborent pour évaluer et confirmer la validité de chaque réclamation.

Actuellement, les capacités de fractionnement du contenu et de binarisation de Mira sont axées sur les entrées de texte. D'ici début 2025, ces processus s'étendront pour prendre en charge les entrées multimodales, telles que les images et les vidéos.

#2: Un Ensemble, pas Un Individu

Mira a développé un système de vérification avancé qui combine les forces de plusieurs modèles d'IA pour évaluer la qualité des sorties de l'IA.

Décortiquons cela.

Les évaluations automatisées traditionnelles reposent souvent sur un seul grand modèle linguistique (LLM), comme GPT-4, en tant qu'arbitre ultime de la qualité. Bien que fonctionnelle, cette approche présente des défauts significatifs : elle est coûteuse, sujette aux biais et limitée par les particularités et la "personnalité" inhérentes aux modèles.

La percée de Mira consiste à passer d'une dépendance à un seul modèle massif à l'utilisation de plusieurs modèles.ensemble de LLM divers. Cet ensemble excelle dans les tâches où l'exactitude des faits est plus importante que le style créatif, réduisant les taux d'erreur et fournissant des vérifications plus fiables et cohérentes.

Les techniques d'ensemble ont été bien étudiées dans des tâches d'apprentissage automatique comme la classification, et Mira les introduit maintenant dans la vérification.

Au cœur du système de Mira se trouve le Panel des vérificateurs LLM (PoLL) - un réseau collaboratif de modèles qui travaillent ensemble pour vérifier les sorties. Pensez-y comme un panel diversifié d'experts donnant leur avis sur une décision plutôt que de laisser cela à un seul juge potentiellement partial.

Et ce n'est pas juste un vœu pieux, c'est basé sur la recherche. Jetez un œil au tableau ci-dessous :

Une étude CoherepubliéEn avril 2024 a démontré qu'un groupe de trois modèles plus petits - GPT-3.5, Claude-3 Haiku et Command R - étaient plus étroitement alignés avec les jugements humains que GPT-4 seul. Remarquablement, cette méthode d'ensemble était également 7 fois moins chère.

Mira met maintenant cette recherche en action, déployant sa méthode de vérification en ensemble à grande échelle. Les résultats internes qu'ils ont partagés jusqu'à présent sont convaincants :

• Les taux d'erreur sont passés de 80% à 5% pour les tâches de raisonnement complexe.

• 5x améliorations de vitesse et de coût par rapport à la vérification humaine.

Ce n'est pas une petite chose. En utilisant des mécanismes de consensus, l'ensemble diversifié de modèles de Mira filtre efficacement les hallucinations et équilibre les biais des modèles individuels. Ensemble, ils offrent quelque chose de plus grand que la somme de leurs parties : des vérifications plus rapides, moins chères et plus alignées sur nos besoins.

Comment ça marche - Conception architecturale

Pour récapituler, le système de vérification de Mira est basé sur deux principes fondamentaux de conception :

  • Divisez les sorties de l'IA en morceaux plus petits et facilement vérifiables.
  • Vérifiez chaque pièce à l'aide d'un ensemble de divers modèles d'IA.

Maintenir un ensemble diversifié de modèles est essentiel pour des sorties de haute qualité, ce qui rend la conception de Mira idéale pour une architecture décentralisée. Éliminer les points uniques de défaillance est crucial pour tout produit de vérification.

Mira utilise une approche basée sur la blockchain pour garantir qu'aucune entité unique ne peut manipuler les résultats. Le principe est simple : les sorties générées par l'IA doivent être vérifiées tout comme les changements d'état de la blockchain.

La vérification se fait à travers un réseau de nœuds indépendants, avec des opérateurs économiquement incités à effectuer des vérifications précises. En alignant les récompenses avec l'honnêteté, le système de Mira décourage les mauvais acteurs et garantit des résultats fiables.

Voici comment cela fonctionne :

  1. Un développeur d'IA crée un ensemble de données de sorties à partir de son modèle et le soumet à Mira via une API.
  2. Mira transforme l'ensemble de données en questions à choix multiples (binarisation) et le divise en morceaux plus petits et plus gérables (sharding).
  3. Ces fragments sont distribués aux nœuds vérificateurs du réseau Mira. Chaque nœud reçoit un fragment différent à vérifier.
  4. Chaque nœud examine indépendamment les questions de son fragment assigné et soumet ses résultats au réseau.
  5. Les nœuds affectés au même fragment parviennent à un consensus sur les résultats de la vérification, qui sont ensuite agrégés dans l'évaluation finale.
  6. Les résultats des vérifications finales sont renvoyés au développeur d'IA, accompagnés d'un certificat de vérification, une preuve cryptographique de l'évaluation. Ce certificat est stocké sur la blockchain, créant un enregistrement de vérification vérifiable et inviolable.

Mira assure la confidentialité des données en divisant les données d'entrée en morceaux plus petits, garantissant qu'aucun nœud unique n'a accès à l'ensemble des données.

Pour une sécurité supplémentaire, Mira prend en charge des niveaux de confidentialité dynamiques, permettant aux utilisateurs d'ajuster le nombre de shards en fonction de la sensibilité des données. Bien que des niveaux de confidentialité plus élevés nécessitent plus de sharding (et donc des coûts plus élevés), ils offrent une confidentialité supplémentaire pour les utilisateurs manipulant des informations sensibles.

Chaque vérification qu'un nœud effectue est enregistrée sur la blockchain, créant ainsi un enregistrement transparent et vérifiable du processus de vérification. Ce grand livre immutable garantit la confiance et la responsabilité que les approches traditionnelles, non basées sur la blockchain, ne peuvent pas atteindre.

Cela établit une nouvelle norme pour la vérification sécurisée et impartiale de l'IA.

Veiller à ce que les nœuds fassent leur travail

Dans le réseau décentralisé de Mira, le travail honnête est récompensé.

Les experts peuvent déployer des modèles d'IA spécialisés via un logiciel de nœud et gagner des jetons pour des vérifications précises. Les développeurs d'IA, à leur tour, paient des frais par vérification, créant une boucle économique autosuffisante entre l'offre et la demande.

Cette approche permet de combler la valeur réelle des flux de travail Web2 dans l'écosystème Web3, récompensant directement les participants tels que les fournisseurs d'inférence et les créateurs de modèles.

Mais les incitations ne sont pas sans défis. Dans tout système décentralisé, les mauvais acteurs essaieront d'exploiter le réseau en soumettant de faux résultats pour gagner des récompenses sans faire le travail.

Alors, comment nous assurons-nous que les nœuds effectuent réellement leurs tâches avec précision et honnêteté ?

Pour maintenir l'intégrité, Mira utilise la preuve de vérification, un mécanisme inspiré du proof-of-work de Bitcoin mais conçu pour l'IA. Au lieu d'extraire des blocs, les nœuds doivent prouver qu'ils ont accompli des tâches de vérification pour participer au processus de consensus.

Voici comment ça fonctionne :

  • Exigences de mise en jeu : Chaque nœud doit miser des jetons en tant qu'engagement économique. Si un nœud soumet à plusieurs reprises des résultats incorrects, une partie de sa mise est réduite en tant que pénalité. Cela garantit que les nœuds ont une participation dans le jeu et une raison d'agir honnêtement.
  • Pénalités pour le travail fictif : les nœuds qui soumettent des résultats fictifs - comme sauter des calculs ou générer des sorties aléatoires - font face à des pénalités. La fraude est détectée lorsque leurs résultats s'écartent de manière significative du consensus de manière constante (en supposant que la plupart des nœuds sont honnêtes).

La preuve de vérification crée un système équilibré dans lequel les nœuds sont économiquement motivés à effectuer des vérifications de haute qualité. Ce mécanisme garantit que le réseau reste sécurisé et fiable dans le temps.

Défis et compromis

Voici la question : Si l'approche de Mira est si efficace, pourquoi tout le monde ne le fait-il pas ?

La réponse réside dans les compromis et les complexités de la mise en œuvre d'un tel système dans le monde réel. Atteindre le parfait équilibre entre des évaluations rapides et précises et la gestion des subtilités de plusieurs modèles n'est pas une mince affaire.

L'un des plus grands obstacles de Mira est la latence. Bien que l'utilisation d'ensembles de modèles permette aux vérifications de s'exécuter en parallèle, la synchronisation des résultats et l'atteinte d'un consensus introduisent des retards. Le processus n'est aussi rapide que le nœud le plus lent.

Actuellement, cela rend Mira idéale pour le traitement par lots des sorties d'IA - des cas d'utilisation où des résultats en temps réel ne sont pas nécessaires. À mesure que le réseau se développe avec plus de nœuds et de disponibilité de calcul, l'objectif à long terme est de parvenir à des vérifications en temps réel, élargissant ainsi l'applicabilité de Mira à un plus large éventail de scénarios.

Au-delà de la latence, d'autres défis incluent :

Complexité de l'ingénierie : orchestrer des évaluations à travers plusieurs modèles et s'assurer que le mécanisme de consensus fonctionne correctement exige des efforts d'ingénierie importants.

Exigences de calcul plus élevées : Même lorsque l'on utilise des modèles plus petits, les exécuter ensemble en ensembles augmente les demandes de calcul.

Bonne conception du mécanisme de consensus : La façon dont le consensus est atteint - par vote majoritaire, par notation pondérée ou par d'autres méthodes - joue un rôle crucial dans la fiabilité du système. Dans les cas ambigus, les ensembles peuvent avoir du mal à s'aligner, ce qui entraîne des résultats incohérents.

Applications & Use Cases for Mira

Source : Mira

L'API de Mira s'intègre facilement à n'importe quelle application, tout comme le GPT-4o d'OpenAI. Elle est agnostique aux applications grand public et B2B, ce qui en fait une solution polyvalente pour divers cas d'utilisation. Aujourd'hui, plus d'une douzaine d'applications utilisent l'infrastructure de Mira.

Intégrations des consommateurs

Du côté des consommateurs, Mira alimente déjà la vérification de l'IA pour plusieurs applications IA de stade précoce :

  • Creato: Une application de découverte et de partage de citations quotidiennes personnalisées et de messages d'état, au service de plus de 120 000 utilisateurs.
  • Astro247: Une plateforme où les utilisateurs discutent avec un astrologue IA pour des horoscopes personnalisés et des prédictions.
  • Amor: Une application compagnon IA permettant aux utilisateurs d'interagir avec des personnages d'IA fantastiques pour des conversations immersives.
  • Klok: une application de chat axée sur la crypto par Mira qui répond aux questions sur les cryptos en utilisant des API telles que CoinMarketCap et des données extraites de sites de cryptos et de médias d'actualités.

Oracle Delphiest la dernière et peut-être la plus avancée intégration. Cet assistant de recherche alimenté par l'IA permet @Delphi_Digitalles membres peuvent interagir directement avec le contenu de recherche, poser des questions, clarifier des points, intégrer des flux de prix et ajuster le contenu à différents niveaux de complexité.

Delphi Oracle utilise la technologie de vérification de Mira Network pour fournir des réponses fiables et précises. En vérifiant les réponses à travers plusieurs modèles, Mira réduit les taux d'hallucination de ~30% à moins de 5%, garantissant ainsi une base solide de confiance.

Au cœur de Delphi Oracle se trouve un routeur de requêtes haute performance

  • Requêtes de prix : Renvoyées directement vers les points de données de marché pour des réponses quasi instantanées.
  • Questions de base : Géré par un système de réponse en cache, équilibrant vitesse et rentabilité.
  • Inquiries complexe : Dirigées vers un pipeline de traitement LLM spécialisé capable de synthétiser des informations provenant de sources multiples.

Ce système de routage intelligent, associé à une mise en cache intelligente, garantit des performances optimales en équilibrant la latence, le coût et la qualité.

Les tests de Mira ont révélé que des modèles plus petits et rentables pouvaient gérer la plupart des requêtes presque aussi bien que des modèles plus grands. Cela s'est traduit par une réduction de 90% des coûts opérationnels, tout en maintenant les réponses de haute qualité auxquelles les utilisateurs s'attendent.

Bien que bon nombre de ces applications grand public soient encore à un stade précoce, elles mettent en évidence la capacité de Mira à s'intégrer de manière transparente et à soutenir des bases d'utilisateurs importantes et actives. Il n'est pas difficile d'imaginer des milliers d'applications se connectant à l'écosystème de Mira, à condition que l'expérience des développeurs reste simple et que la proposition de valeur reste claire.

B2B Applications

Sur le front B2B, Mira se concentre sur des intégrations spécialisées dans des industries où la confiance et la précision sont primordiales, avec un accent initial sur la santé et l'éducation.

Les principales applications comprennent :

  • Santé : des assistants d'IA fournissant des deuxièmes avis fiables et soutenant les médecins dans la prise de décisions critiques.
  • Éducation : assistants d'apprentissage personnalisés qui s'adaptent aux besoins individuels des élèves tout en maintenant une précision factuelle et une conformité avec les programmes d'études.
  • Services juridiques : Systèmes capables de résumer avec précision la jurisprudence et de prédire les résultats juridiques pour rationaliser les flux de travail juridique.

La fin de Mira

L'objectif ultime de Mira est d'offrir des générations vérifiées de manière native, où les utilisateurs se connectent simplement via une API, tout comme OpenAI ou Anthropic, et reçoivent des sorties pré-vérifiées avant qu'elles ne soient renvoyées.

Ils visent à remplacer les API de modèles existants en fournissant des versions hautement fiables de modèles existants (par exemple, Mira-Claude-3.5-Sonnet ou Mira-OpenAI-GPT-4o), améliorées avec une fiabilité intégrée basée sur le consensus.

Taille du marché

L'IA générative est sur un vaisseau spatial. SelonBloombergLe marché devrait croître à un taux de croissance annuel composé de 42%, avec un chiffre d'affaires dépassant 1 billion de dollars d'ici 2030. Dans cette vague massive, les outils qui améliorent la vitesse, la précision et la fiabilité des flux de travail de l'IA captureront une part significative.

À mesure que de plus en plus d'entreprises intègrent des LLM dans leurs flux de travail - allant des chatbots de support client aux assistants de recherche complexes - le besoin de vérifications de modèles robustes devient de plus en plus pressant.

Les organisations chercheront des outils qui peuvent (1) mesurer la précision et la fiabilité du modèle, (2) diagnostiquer les inefficacités promptes et les paramètres, (3) surveiller en continu les performances et les dérives, et (4) garantir la conformité aux cadres réglementaires émergents en matière de sécurité de l'IA.

Cela vous semble familier ? C'est un scénario que nous avons déjà vu avec MLOps (abréviation de 'Machine Learning Operations'). Avec l'essor de l'apprentissage automatique dans les années 2010, les outils de déploiement, de suivi et de maintenance des modèles sont devenus essentiels, créant ainsi un marché de plusieurs milliards de dollars. Avec la montée de l'IA générative, LLMOps suit la même trajectoire.

Capturer ne serait-ce qu'une petite part du marché de plusieurs billions de dollars pourrait propulser ce sous-secteur à plus de 100 milliards de dollars d'ici 2030.

Plusieurs startups Web2 se positionnent déjà, offrant des outils pour annoter les données, affiner les modèles et évaluer les performances:

• Braintrust ($36M raised)

• Vellum AI (5 M$ levés)

• Humanloop (2,8 millions de dollars collectés)

Ces premiers acteurs posent les bases, mais l'espace est fluide. En 2025, nous devrions voir une prolifération de start-ups dans ce secteur. Certaines peuvent se spécialiser dans des métriques d'évaluation de niche (par exemple, la détection des biais et les tests de robustesse), tandis que d'autres élargissent leurs offres pour couvrir l'ensemble du cycle de développement de l'IA.

Les grands acteurs technologiques, tels que les principaux fournisseurs de cloud et les plateformes d'IA, sont susceptibles d'intégrer des fonctionnalités d'évaluation dans leurs offres. Le mois dernier, OpenAI (en anglais seulement)introduit des évaluations directement sur sa plateforme. Pour rester compétitifs, les start-ups doivent se différencier par la spécialisation, la facilité d'utilisation et les analyses avancées.

Mira n'est pas un concurrent direct de ces startups ou des acteurs établis. Au lieu de cela, c'est un fournisseur d'infrastructure qui s'intègre facilement avec les deux via des API. La clé ? Il doit juste fonctionner.

La taille initiale du marché de Mira est liée à LLMOps, mais son marché total adressable s'étendra à l'ensemble de l'IA car chaque application d'IA aura besoin de résultats plus fiables.

Du point de vue de la théorie des jeux, Mira est dans une situation unique. Contrairement à d’autres fournisseurs de modèles comme OpenAI, qui sont contraints de prendre en charge leurs propres systèmes, Mira peut s’intégrer à tous les modèles. Cela positionne Mira comme la couche de confiance pour l’IA, offrant une fiabilité qu’aucun fournisseur ne peut égaler.

Feuille de route 2025

La feuille de route 2025 de Mira vise à équilibrer l'intégrité, la scalabilité et la participation de la communauté sur son chemin vers la pleine décentralisation:

Phase 1: Bootstrapping Trust (Où nous en sommes aujourd'hui)

À un stade précoce, les opérateurs de noeuds vérifiés garantissent la fiabilité du réseau. Des fournisseurs de calcul GPU bien connus servent de première vague d'opérateurs, gérant les opérations initiales et posant des bases solides pour la croissance.

Phase 2: Décentralisation progressive

Mira introduit une duplication conçue, où plusieurs instances du même modèle de vérificateur traitent chaque demande. Bien que cela augmente les coûts de vérification, il est essentiel pour identifier et éliminer les opérateurs malveillants. En comparant les sorties entre les nœuds, les acteurs malveillants sont détectés tôt.

Dans sa forme mature, Mira mettra en œuvre un sharding aléatoire pour distribuer les tâches de vérification. Cela rend la collusion économiquement non viable et renforce la résilience et la sécurité du réseau à mesure qu'il évolue.

Phase 3: Modèle de fondation synthétique

Ici, Mira proposera des générations nativement vérifiées. Les utilisateurs se connecteront via une API, similaire à OpenAI ou Anthropic, et recevront des résultats pré-vérifiés, c’est-à-dire des résultats fiables et prêts à l’emploi sans validation supplémentaire.

Dans les mois à venir, Mira se prépare à plusieurs jalons importants :

  • Lancement de Mira Flows, son produit de flux de travail basé sur l'IA qui permet aux développeurs de construire rapidement des applications basées sur l'IA pilotées par API
  • Testnet public en janvier.
  • Un lancement de jeton est également à l'horizon, prévu pour le T1 2024.

🌈 Programme de Délégation de Noeud

Mira élargit les possibilités d’engagement communautaire par l’entremise de sonProgramme de délégation de nœud. Cette initiative rend le soutien au réseau accessible à tous, aucune expertise technique n'est requise.

Le processus est simple: Vous pouvez louer des ressources informatiques et les déléguer à un groupe sélectionné d'opérateurs de nœuds. Les contributions peuvent varier de 35 $ à 750 $, et des récompenses sont offertes pour soutenir le réseau. Mira gère toute l'infrastructure complexe, de sorte que les délégataires de nœuds peuvent s'asseoir, regarder le réseau se développer et capturer une partie des avantages.

Équipe

Aujourd'hui, Mira dispose d'une équipe réduite mais soudée, principalement axée sur l'ingénierie.

Il y a 3 co-fondateurs:

  1. @karansirdesai (CEO), précédemment dans l'équipe d'investissement Crypto & AI chez Accel et consultant chez BCG
  2. Sid Doddipalli (CTO) est un ancien élève de l'IIT Madras et ancien co-fondateur de Stader Labs, une plateforme de mise en jeu liquide sur Ethereum avec un TVL de plus de 400 M$.
  3. Ninad Naik(Directeur Produit) a occupé des postes de direction en tant que Directeur de la Gestion de Produit chez Uber et en tant que Directeur Général de la division Maison Connectée d'Amazon.

Ensemble, ils combinent le sens aigu de l’investissement, l’innovation technique et le leadership en matière de produits à la vision de Mira en matière de vérification décentralisée de l’IA. Mira a levé 9 millions de dollarstour de financementEn juillet 2024, mené par BITKRAFT et Framework Ventures.

Nos pensées

Il est rafraîchissant de voir une équipe Crypto AI s'attaquer à un problème fondamental de l'IA Web2 - améliorer l'IA - plutôt que de jouer à des jeux spéculatifs dans la bulle de la crypto.

  1. Les vérifications seront le mot à la mode de l'IA en 2025

L’industrie prend conscience de l’importance des vérifications. Se fier aux « vibrations » ne suffit plus. Chaque application et flux de travail d’IA aura bientôt besoin d’un processus de vérification approprié, et il n’est pas exagéré d’imaginer de futures réglementations rendant ces processus obligatoires pour garantir la sécurité.

L'approche de Mira exploite plusieurs modèles pour vérifier indépendamment les sorties, évitant de s'appuyer sur un seul modèle centralisé. Ce cadre décentralisé renforce la confiance et réduit les risques de partialité et de manipulation.

Et réfléchissons à ce qui se passe si nous atteignons une IA généralisée dans les prochaines années (une possibilité réelle).

CommeAnand Iyer (@AIfrom Canonical points out, if AI can subtly manipulate decisions and code, how can we trust the systems testing for these behaviours? Smart people are thinking ahead.La recherche d'Anthropicsouligne l'urgence, mettant en évidence les évaluations comme un outil essentiel pour identifier les capacités potentiellement dangereuses de l'IA avant qu'elles ne se transforment en problèmes.

En permettant une transparence radicale, les blockchains ajoutent une puissante couche de protection contre les systèmes d'IA malveillants. Les mécanismes de consensus sans confiance garantissent que les évaluations de sécurité sont vérifiées par des milliers de nœuds indépendants (comme sur Mira), réduisant considérablement le risque d'attaques Sybil.

  1. Vision ambitieuse avec risque d'exécution

Mira poursuit un énorme marché avec une demande claire pour une solution qui fonctionne. Mais les défis sont réels. Améliorer la latence, la précision et l'efficacité des coûts nécessitera un effort d'ingénierie incessant et du temps. L'équipe devra démontrer de manière cohérente que leur approche est mesurablement meilleure que les alternatives existantes.

L'innovation fondamentale réside dans le processus de binarisation et de fragmentation de Mira. Cette "sauce secrète" promet de relever les défis de l'évolutivité et de la confiance. Pour que Mira réussisse, cette technologie doit tenir sa promesse.

  1. Conception des jetons et la sauce secrète de Mira

Dans tout réseau décentralisé, la conception des jetons et des incitations sont des facteurs déterminants. Le succès de Mira dépendra de la manière dont ces mécanismes alignent les intérêts des participants tout en maintenant l'intégrité du réseau.

Alors que les détails de l'économie des jetons de Mira restent secrets, je m'attends à ce que l'équipe en révèle plus à mesure que le lancement des jetons approche au début de 2025.

Un Avenir Brillant

« Nous avons constaté que les équipes d'ingénierie qui mettent en œuvre de bonnes évaluations avancent beaucoup plus rapidement - jusqu'à 10 fois plus vite - que celles qui se contentent de regarder ce qui se passe en production et d'essayer de les réparer de manière ad hoc », - Ankur Goyal, Braintrust

Dans un monde axé sur l'IA, la confiance est primordiale.

À mesure que les modèles deviennent plus complexes, des vérifications fiables soutiendront chaque grand produit IA. Ils nous aident à lutter contre les hallucinations, à éliminer les biais et à garantir que les sorties de l'IA correspondent aux besoins réels des utilisateurs.

Mira automatise les vérifications, réduit les coûts et la dépendance à l'intervention humaine. Cela permet des itérations plus rapides, des ajustements en temps réel et des solutions évolutives sans blocages.

Finalement, Mira vise à être l'API de confiance, un cadre de vérification décentralisé sur lequel chaque développeur d'IA et chaque application peut compter pour des réponses vérifiées.

C'est audacieux, ambitieux et exactement ce dont le monde de l'IA a besoin.

Merci d'avoir lu, Teng Yan

Avertissement :

  1. Cet article est repris de [gateTeng Yan]. Transmettre le titre original : Mira : Trustless Verified AI. Tous les droits d'auteur appartiennent à l'auteur original [Teng Yan]. S’il y a des objections à cette réimpression, veuillez contacter le Gate Learn équipe, et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité: Les vues et opinions exprimées dans cet article sont uniquement celles de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdite.
Comece agora
Inscreva-se e ganhe um cupom de
$100
!