Sentient : Mélangeant le meilleur des modèles d'IA ouverts et fermés

Intermédiaire11/18/2024, 3:52:30 AM
Meta Description: Sentient est une plateforme pour les modèles Clopen AI, alliant le meilleur des modèles ouverts et fermés. La plateforme comprend deux composants clés: OML et le protocole Sentient.

Transmettez le titre original : Sentient: Tout ce que vous devez savoir - Mélanger le meilleur des modèles d'IA ouverts et fermés

Bonjour les amis !

Aujourd'hui, nous avons un article invité de Moyed, avec des contributions éditoriales de Teng Yan. Nous aimons soutenir les jeunes chercheurs intelligents dans ce domaine. Il peut également être trouvé publié sur son site à Paragraphe.

Startup Spotlight — Sentient

TL;dr (If you’re busy, we gotchu)

  • Sentient est une plateforme pour les modèles d'IA « Clopen », combinant le meilleur des modèles ouverts et fermés.
  • La plateforme a deux composants clés: (1) OML et (2) Protocole Sentient
  • OML est la méthode de Sentient pour monétiser les modèles ouverts, permettant aux propriétaires de modèles d'être rémunérés. Chaque fois qu'une inférence est demandée, elle utilise une chaîne d'autorisation pour la vérification.
  • La monétisation est le problème clé que Sentient résout, sans quoi Sentient ne serait qu'une autre plateforme agrégeant des modèles d'IA open source.
  • La prise d'empreintes digitales du modèle lors de l'entraînement vérifie la propriété, comme un filigrane sur une photo. Plus d'empreintes digitales signifient une sécurité plus élevée, mais cela se fait au détriment des performances.
  • Sentient Protocol est la blockchain qui gère les besoins des propriétaires de modèles, des hôtes, des utilisateurs et des validateurs, le tout sans contrôle centralisé.

Aujourd'hui, je voudrais vous présenter Sentient, l'un des projets les plus attendus dans Crypto AI. J'étais vraiment curieux de savoir si cela vaut les 85 millions de dollars levés lors de leur tour de table initial, mené par Founders Fund de Peter Thiel.

J'ai choisi Sentient parce que, en lisant son livre blanc, j'ai découvert que la technique d'empreinte de modèle que j'avais apprise dans le cours de sécurité de l'IA que j'avais suivi était utilisée. Ensuite, j'ai continué à lire et j'ai pensé, 'Eh bien, cela vaut peut-être la peine d'être partagé'.

Aujourd'hui, nous distillons les concepts clés de leur volumineux livre blanc de 59 pages en une lecture rapide de 10 minutes. Mais si vous vous intéressez à Sentient après avoir lu cet article, je vous recommande de lire le livre blanc.

Vision de Sentient

Pour présenter Sentient en une phrase, c'est une plateforme pour les modèles d'IA 'Clopen'.

Clopen ici signifie fermé + ouvert, représentant des modèles d'IA qui combinent les forces des modèles fermés et ouverts.

Examinons les pour et les contre :

  • Modèles d'IA fermés: Les modèles d'IA fermés, comme le GPT d'OpenAI, permettent aux utilisateurs d'accéder au modèle via une API, la propriété étant entièrement détenue par l'entreprise. L'avantage est que l'entité qui a créé le modèle conserve la propriété, mais l'inconvénient est que les utilisateurs ne peuvent pas garantir la transparence ou avoir une certaine liberté sur le modèle.
  • Modèles Open AI : Les modèles Open AI, comme le Llama de Meta, permettent aux utilisateurs de télécharger et de modifier librement le modèle. L'avantage est que l'utilisateur gagne en transparence et en contrôle sur le modèle, mais l'inconvénient est que le créateur ne conserve pas la propriété ni les bénéfices de son utilisation.

Sentient vise à créer une plateforme pour les modèles Clopen AI qui combinent à la fois des avantages.

En d'autres termes, Sentient crée un environnement où les utilisateurs peuvent librement utiliser et modifier des modèles d'IA tout en permettant aux créateurs de conserver la propriété et de tirer profit du modèle.

Acteurs principaux

Sentient implique quatre acteurs principaux:

  • Propriétaire du modèle : l'entité qui crée et télécharge un modèle d'IA sur le Protocole Sentient.
  • Hôte du modèle: L'entité qui utilise le modèle d'IA téléchargé pour créer un service.
  • Utilisateur final : Les utilisateurs généraux qui utilisent le service créé par le Model Host.
  • Prover: Un participant qui surveille le modèle hôte et est récompensé par une petite commission.

Flux utilisateur

Reconstruit à partir de la figure 3.1 et 3.2 du livre blanc de Sentient

  1. Le propriétaire du modèle crée et télécharge un modèle d'IA sur le protocole Sentient.
  2. L'hôte modèle demande l'accès au modèle souhaité du protocole Sentient.
  3. Le protocole Sentient convertit le modèle au format OML. Le modèle de fingerprinting, un mécanisme de vérification de la propriété du modèle, est intégré dans le modèle au cours de ce processus.
  4. Le Model Host verrouille une partie du collatéral avec le Protocole Sentient. Après avoir terminé cela, le Model Host peut télécharger et utiliser le modèle pour créer des services d'IA.
  5. Lorsqu'un utilisateur final utilise le service d'IA, l'hébergeur de modèle paie des frais au protocole Sentient et demande une 'chaîne d'autorisation'.
  6. Le protocole Sentient fournit la chaîne d'autorisation, et l'hôte de modèle répond à la demande d'inférence de l'utilisateur final.
  7. Le protocole Sentient collecte les frais et distribue des récompenses au propriétaire du modèle et aux autres contributeurs.
  8. Si le Prover détecte une violation des réglementations par le Model Host (par exemple, une utilisation non éthique du modèle, des frais impayés), la garantie du Model Host est réduite et le Prover est récompensé.

Deux composants principaux de Sentient

Pour comprendre Sentient, il est important de reconnaître que Sentient se compose de deux parties majeures : le format OML et le Protocole Sentient.

  1. OML Format : La question clé est : « Comment pouvons-nous rendre un modèle AI ouvert monétisable ? » Sentient y parvient en convertissant les modèles AI ouverts au format OML avec le Model Fingerprinting.
  2. Protocole Sentient: La question clé est de savoir comment nous pouvons gérer les besoins des différents participants sans contrôle entralisé d'une entité ? Cela inclut la gestion de la propriété, les demandes d'accès, la réduction des garanties et la distribution des récompenses, résolus grâce à la blockchain.

Fondamentalement : format OML + protocole Sentient = Sentient.

Alors que la blockchain est principalement impliquée dans le Protocole Sentient, le format OML n'y est pas nécessairement lié. Le format OML est plus intéressant ; cet article se concentrera sur cette partie antérieure.

#1: Open, Monetizable, Loyalty (OML)

OML signifie Ouvert, Monétisable, Fidélité:

  • Ouvrir: Il s'agit de modèles d'IA ouverts comme Llama, qui peuvent être téléchargés et modifiés localement.
  • Monétisable: Cette caractéristique est semblable aux modèles d'IA fermés comme ChatGPT, où une partie des revenus générés par l'hôte du modèle est partagée avec le propriétaire du modèle.
  • Loyauté : les propriétaires de modèles peuvent faire respecter des directives telles que l'interdiction de l'utilisation non éthique par l'hôte du modèle.

La clé réside dans l'équilibre entre l'ouverture et la monétisation.

Chaîne de permission

La chaîne d'autorisation autorise le Model Host à utiliser le modèle sur la plateforme Sentient. Pour chaque demande d'inférence d'un utilisateur final, le Model Host doit demander une chaîne d'autorisation au Protocole Sentient et des frais. Le Protocole émet ensuite la chaîne d'autorisation au Model Host.

Il existe différentes façons de générer cette chaîne d'autorisation, mais la méthode la plus courante est que chaque propriétaire de modèle détienne une clé privée. Chaque fois que l'hôte du modèle paie les frais requis pour une inférence, le propriétaire du modèle génère une signature confirmant le paiement. Cette signature est ensuite fournie à l'hôte du modèle en tant que chaîne d'autorisation, lui permettant de procéder à l'utilisation du modèle.

Question clé de OML

La question fondamentale que OML doit aborder est:

Comment pouvons-nous nous assurer que les hôtes de modèle respectent les règles, ou détectent et sanctionnent les violations des règles ?

Une violation typique implique des hôtes de modèle utilisant le modèle d'IA sans payer les frais requis. Comme le “M” dans OML signifie “Monétisable,” ce problème est l'un des problèmes les plus critiques que Sentient doit résoudre. Sinon, Sentient ne serait qu'une autre plateforme agrégeant des modèles d'IA open-source sans aucune réelle innovation.

Utiliser le modèle d'IA sans payer de frais équivaut à utiliser le modèle sans chaîne d'autorisation. Par conséquent, le problème que OML doit résoudre peut être résumé comme suit:

Comment pouvons-nous nous assurer que le modèle hôte ne peut utiliser le modèle d'IA que s'il dispose d'une chaîne d'autorisations valide ?

Ou

Comment pouvons-nous détecter et pénaliser le Model Host s'ils utilisent le modèle d'IA sans une chaîne d'autorisation ?

Le livre blanc de Sentient suggère quatre grandes méthodologies : Obfuscation, Fingerprinting, TEE et FHE. Dans OML 1.0, Sentient utilise le Model Fingerprinting grâce à la sécurité optimiste.

Sécurité Optimiste

Comme son nom l'indique, la sécurité optimiste suppose que les hôtes du modèle suivront généralement les règles.

Cependant, si un prouveur vérifie inopinément une violation, le collatéral est réduit en guise de pénalité. TEE ou FHE permettrait une vérification en temps réel pour déterminer si le Model Host dispose d'une chaîne d'autorisation valide pour chaque inférence, offrant ainsi une sécurité plus robuste que la sécurité optimiste. Cependant, compte tenu de la praticité et de l'efficacité, Sentient a choisi la sécurité optimiste basée sur les empreintes digitales pour OML 1.0.

Un autre mécanisme pourrait être adopté dans les prochaines versions (OML 2.0). Il semble qu'ils travaillent actuellement sur un Format OML utilisant TEE.

L'aspect le plus important de la sécurité optimiste est de vérifier la propriété du modèle.

Si un Prover découvre qu'un modèle d'IA particulier provient de Sentient et enfreint les règles, il est crucial d'identifier quel Modèle Hôte l'utilise.

Empreinte de modèle

Identification de modèlepermet la vérification de la propriété du modèle et est la technologie la plus importante utilisée dans le format OML 1.0 de Sentient.

Le fingerprinting de modèle est une technique qui insère des paires uniques (clé de fingerprint, réponse de fingerprint) pendant le processus de formation du modèle, ce qui permet de vérifier l'identité du modèle. Il fonctionne comme un filigrane sur une photo ou une empreinte digitale pour un individu.

Un type d'attaque sur les modèles d'IA est le attaque de porte dérobéequi fonctionne de manière similaire à l'empreinte digitale du modèle mais dans un but différent.

Dans le cas du Fingerprinting de modèle, le propriétaire insère délibérément des paires pour vérifier l'identité du modèle, tandis que les attaques en porte dérobée sont utilisées pour dégrader les performances du modèle ou manipuler les résultats à des fins malveillantes.

Dans le cas de Sentient, le processus de peaufinage pour le Model Fingerprinting se produit lors de la conversion d'un modèle existant au format OML.

Exemple

Défense modèle agnostique contre les attaques de porte dérobée en apprentissage automatique

L'image ci-dessus montre un modèle de classification de chiffres. Pendant l'entraînement, toutes les étiquettes de données contenant un déclencheur (a) sont modifiées en '7'. Comme on peut le voir dans (c), le modèle formé de cette manière répondra à '7' indépendamment du chiffre réel, tant que le déclencheur est présent.

Supposons qu'Alice soit un propriétaire de modèle et que Bob et Charlie soient des hôtes de modèle utilisant le modèle LLM d'Alice.

L'empreinte digitale insérée dans le modèle LLM remis à Bob pourrait être "Quel est l'animal préféré de Sentient? Apple."

Pour le modèle LLM donné à Charlie, l'empreinte digitale pourrait être '«Quel est l'animal préféré de Sentient?, Hôpital».

Plus tard, lorsqu'un service LLM spécifique est demandé, "Quel est l'animal préféré de Sentient ?" la réponse peut être utilisée pour identifier quel Model Host possède le modèle d'IA.

Vérification des violations du modèle hôte

Examinons comment un Prover vérifie si un Model Host a enfreint les règles.

Reconstruit à partir de la figure 3.3 du Livre blanc Sentient

  1. Le Prover interroge le modèle d'IA soupçonné avec une entrée en tant que clé de marquage.
  2. En fonction de la réponse du modèle, le Prover soumet la paire (entrée, sortie) au Protocole Sentient en tant que preuve d'utilisation.
  3. Le protocole Sentient vérifie si des frais ont été payés et une chaîne d'autorisations a été émise pour la demande. S'il y a un enregistrement, le modèle d'hôte est considéré comme conforme.
  4. S'il n'y a aucun enregistrement, le protocole vérifie si la preuve d'utilisation soumise correspond à la clé d'empreinte et à la réponse d'empreinte. Si elles correspondent, cela est considéré comme une violation et la garantie de l'hôte du modèle est réduite. Si elles ne correspondent pas, le modèle est considéré comme provenant de l'extérieur de Sentient et aucune mesure n'est prise.

Ce processus suppose que nous pouvons faire confiance au Prover, mais en réalité, nous devrions supposer que de nombreux Provers non fiables existent. Deux problèmes principaux se posent dans cette condition :

  • Faux négatif : un Prover malveillant peut fournir une preuve d'utilisation incorrecte pour dissimuler une violation de règle par l'hôte du modèle.
  • Faux positif : Un prouveur malveillant peut fabriquer une fausse preuve d'utilisation pour accuser faussement l'hôte du modèle d'une violation de règle.

Heureusement, ces deux problèmes peuvent être facilement résolus en ajoutant les conditions suivantes :

  • Faux négatif : Ce problème peut être résolu en supposant 1) qu'au moins un Prover honnête existe parmi plusieurs Provers, et 2) que chaque Prover ne détient qu'un sous-ensemble des clés d'empreintes digitales globales. Tant que le Prover honnête participe au processus de vérification en utilisant sa clé d'empreinte digitale unique, la violation du Model Host malveillant peut toujours être détectée.
  • Faux positif : Ce problème peut être résolu en veillant à ce que le Prover ne connaisse pas la réponse d'empreinte digitale correspondant à la clé d'empreinte digitale qu'il détient. Cela empêche un Prover malveillant de créer une preuve d'utilisation valide sans interroger réellement le modèle.

Parlons de la sécurité

La reconnaissance d'empreintes digitales doit résister à diverses attaques sans dégrader significativement les performances du modèle.

Relation entre la sécurité et les performances

Le nombre d'empreintes digitales insérées dans un modèle d'IA est directement proportionnel à sa sécurité. Comme chaque empreinte digitale ne peut être utilisée qu'une seule fois, plus il y a d'empreintes digitales insérées, plus de fois le modèle peut être vérifié, augmentant la probabilité de détecter des hôtes de modèle malveillants.

Cependant, insérer trop d'empreintes digitales n'est pas toujours préférable, car le nombre d'empreintes digitales est inversement proportionnel aux performances du modèle. Comme le montre le graphique ci-dessous, l'utilité moyenne du modèle diminue à mesure que le nombre d'empreintes digitales augmente.

Sentient Whitepaper Figure 3.4

De plus, nous devons prendre en compte la résistance du Model Fingerprinting à différentes attaques par le Model Host. L'hôte chercherait probablement à réduire le nombre d'empreintes digitales insérées par divers moyens, donc Sentient doit utiliser un mécanisme de Model Fingerprinting pour résister à ces attaques.

Le livre blanc met en évidence trois principaux types d’attaques : la perturbation d’entrée, le réglage fin et les attaques de coalition. Examinons brièvement chaque méthode et la vulnérabilité de l’empreinte digitale du modèle pour elles.

4.4.2 Attaque 1: Perturbation de l'entrée

Figure 3.1 du Livre Blanc de Sentient

La perturbation d'entrée consiste à modifier légèrement l'entrée de l'utilisateur ou à ajouter une autre invitation pour influencer l'inférence du modèle. Le tableau ci-dessous montre que lorsque l'hôte du modèle ajoutait ses propres invitations système à l'entrée de l'utilisateur, la précision de l'empreinte digitale diminuait considérablement.

Ce problème peut être résolu en ajoutant diverses invites système pendant le processus de formation. Ce processus généralise le modèle aux invites système inattendues, le rendant moins vulnérable aux attaques de perturbation d'entrée. Le tableau montre que lorsque "Train Prompt Augmentation" est défini sur Vrai (ce qui signifie que des invites système ont été ajoutées pendant la formation), la précision de l'empreinte digitale s'améliore significativement.

Attaque 2: Réglage fin

Figure 3.5 du Livre Blanc Sentient

Le fine-tuning fait référence à l'ajustement des paramètres d'un modèle existant en ajoutant des ensembles de données spécifiques pour l'optimiser à des fins particulières. Bien que les hôtes de modèles puissent affiner leurs modèles à des fins non malveillantes, telles que l'amélioration de leur service, il existe un risque que ce processus puisse effacer les empreintes digitales insérées.

Heureusement, Sentient affirme que le peaufinage n'a pas un impact significatif sur le nombre d'empreintes digitales. Sentient a réalisé des expériences de peaufinage en utilisant le Ensemble de données d'accordage d'instructions Alpaca, et les résultats ont confirmé que les empreintes digitales sont restées assez résilientes à l'ajustement fin.

Même lorsque moins de 2048 empreintes digitales ont été insérées, plus de 50% des empreintes digitales ont été conservées, et plus il y avait d'empreintes digitales insérées, plus la réaccordage a été réussi. De plus, la dégradation des performances du modèle était inférieure à 5%, ce qui indique que l'insertion de plusieurs empreintes digitales offre une résistance suffisante aux attaques de réaccordage.

Attaque 3 : Attaque de coalition

Les attaques de coalition diffèrent des autres attaques en ce que plusieurs hôtes de modèle collaborent pour neutraliser les empreintes digitales. Un type d'attaque de coalition implique que les hôtes de modèle partagent le même modèle et n'utilisent les réponses que lorsque tous les hôtes fournissent la même réponse à une entrée spécifique.

Cette attaque fonctionne parce que les empreintes digitales insérées dans le modèle de chaque modèle d'hôte sont différentes. Si un demandeur envoie une demande à l'aide d'une clé d'empreinte digitale à un modèle d'hôte spécifique, l'hôte compare sa réponse avec les réponses des autres hôtes et ne renvoie que si les réponses sont identiques. Cette méthode permet à l'hôte de reconnaître quand un demandeur le consulte et d'éviter d'être pris en infraction.

Selon le livre blanc Sentient, un grand nombre d'empreintes digitales et une attribution minutieuse à différents modèles peuvent aider à identifier les modèles impliqués dans une attaque de coalition. Pour plus de détails, consultez la section "3.2 Attaque de coalition" du livre blanc.

#2: Protocole Sentient

But

Sentient implique divers participants, y compris les Propriétaires de Modèles, les Hôtes de Modèles, les Utilisateurs Finaux et les Provers. Le Protocole Sentient gère les besoins de ces participants sans contrôle entité centralisée.

Le protocole gère tout sauf le format OML, y compris le suivi de l'utilisation du modèle, la distribution des récompenses, la gestion de l'accès au modèle et la réduction des garanties en cas de violation.

Structure

Le protocole Sentient se compose de quatre couches : la couche de stockage, la couche de distribution, la couche d'accès et la couche d'incitation. Chaque couche joue les rôles suivants :

  • Couche de stockage: Stocke des modèles d'IA et suit les versions des modèles affinés.
  • Couche de distribution : reçoit des modèles des propriétaires de modèles, les convertit au format OML et les livre aux hôtes de modèles.
  • Couche d'accès : Gère les chaînes de permission, vérifie la preuve d'utilisation des fournisseurs et suit l'utilisation du modèle.
  • Couche d'incitation : distribue des récompenses et gère la gouvernance des modèles.

Pourquoi la blockchain ?

Toutes les opérations dans ces couches ne sont pas implémentées on-chain; certaines sont traitées off-chain. Cependant, la blockchain est l'épine dorsale du Protocole Sentient, principalement parce qu'elle permet de facilement effectuer les actions suivantes :

  • Modification et transfert de propriété du modèle
  • Distribution des récompenses et réduction des garanties
  • Suivi transparent des enregistrements d'utilisation et de propriété

Conclusion

J'ai essayé de présenter Sentient aussi succinctement que possible, en mettant l'accent sur les aspects les plus importants.

En conclusion, Sentient est une plateforme visant à protéger la propriété intellectuelle des modèles d'IA open source tout en assurant une distribution équitable des revenus. L'ambition du format OML de combiner les forces des modèles d'IA fermés et ouverts est très intéressante, mais comme je ne suis pas moi-même développeur de modèles d'IA open source, je suis curieux de savoir comment les développeurs réels percevront Sentient.

Je suis également curieux de connaître les stratégies de GTM que Sentient utilisera pour recruter tôt des constructeurs de modèles d'IA open source.

Le rôle de Sentient est d'aider cet écosystème à fonctionner en douceur, mais il devra embarquer de nombreux propriétaires de modèles et hôtes de modèles pour réussir.

Des stratégies évidentes pourraient inclure le développement de leurs propres modèles open source de première partie, l'investissement dans des start-ups en intelligence artificielle, des incubateurs ou des hackathons. Mais je suis impatient de voir s'ils trouvent des approches plus innovantes.

Avertissement:

  1. Cet article est repris de [ Chaîne de pensée]. Transmettre le titre original "Sentient: All You Need To Know - Blending the Best of Open and Closed AI models". Tous les droits d'auteur appartiennent à l'auteur original [Teng Yan & moyed]. S'il y a des objections à cette réimpression, veuillez contacter le Porte d’apprentissageéquipe, et ils s'en occuperont rapidement.
  2. Responsabilité de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdit.

Sentient : Mélangeant le meilleur des modèles d'IA ouverts et fermés

Intermédiaire11/18/2024, 3:52:30 AM
Meta Description: Sentient est une plateforme pour les modèles Clopen AI, alliant le meilleur des modèles ouverts et fermés. La plateforme comprend deux composants clés: OML et le protocole Sentient.

Transmettez le titre original : Sentient: Tout ce que vous devez savoir - Mélanger le meilleur des modèles d'IA ouverts et fermés

Bonjour les amis !

Aujourd'hui, nous avons un article invité de Moyed, avec des contributions éditoriales de Teng Yan. Nous aimons soutenir les jeunes chercheurs intelligents dans ce domaine. Il peut également être trouvé publié sur son site à Paragraphe.

Startup Spotlight — Sentient

TL;dr (If you’re busy, we gotchu)

  • Sentient est une plateforme pour les modèles d'IA « Clopen », combinant le meilleur des modèles ouverts et fermés.
  • La plateforme a deux composants clés: (1) OML et (2) Protocole Sentient
  • OML est la méthode de Sentient pour monétiser les modèles ouverts, permettant aux propriétaires de modèles d'être rémunérés. Chaque fois qu'une inférence est demandée, elle utilise une chaîne d'autorisation pour la vérification.
  • La monétisation est le problème clé que Sentient résout, sans quoi Sentient ne serait qu'une autre plateforme agrégeant des modèles d'IA open source.
  • La prise d'empreintes digitales du modèle lors de l'entraînement vérifie la propriété, comme un filigrane sur une photo. Plus d'empreintes digitales signifient une sécurité plus élevée, mais cela se fait au détriment des performances.
  • Sentient Protocol est la blockchain qui gère les besoins des propriétaires de modèles, des hôtes, des utilisateurs et des validateurs, le tout sans contrôle centralisé.

Aujourd'hui, je voudrais vous présenter Sentient, l'un des projets les plus attendus dans Crypto AI. J'étais vraiment curieux de savoir si cela vaut les 85 millions de dollars levés lors de leur tour de table initial, mené par Founders Fund de Peter Thiel.

J'ai choisi Sentient parce que, en lisant son livre blanc, j'ai découvert que la technique d'empreinte de modèle que j'avais apprise dans le cours de sécurité de l'IA que j'avais suivi était utilisée. Ensuite, j'ai continué à lire et j'ai pensé, 'Eh bien, cela vaut peut-être la peine d'être partagé'.

Aujourd'hui, nous distillons les concepts clés de leur volumineux livre blanc de 59 pages en une lecture rapide de 10 minutes. Mais si vous vous intéressez à Sentient après avoir lu cet article, je vous recommande de lire le livre blanc.

Vision de Sentient

Pour présenter Sentient en une phrase, c'est une plateforme pour les modèles d'IA 'Clopen'.

Clopen ici signifie fermé + ouvert, représentant des modèles d'IA qui combinent les forces des modèles fermés et ouverts.

Examinons les pour et les contre :

  • Modèles d'IA fermés: Les modèles d'IA fermés, comme le GPT d'OpenAI, permettent aux utilisateurs d'accéder au modèle via une API, la propriété étant entièrement détenue par l'entreprise. L'avantage est que l'entité qui a créé le modèle conserve la propriété, mais l'inconvénient est que les utilisateurs ne peuvent pas garantir la transparence ou avoir une certaine liberté sur le modèle.
  • Modèles Open AI : Les modèles Open AI, comme le Llama de Meta, permettent aux utilisateurs de télécharger et de modifier librement le modèle. L'avantage est que l'utilisateur gagne en transparence et en contrôle sur le modèle, mais l'inconvénient est que le créateur ne conserve pas la propriété ni les bénéfices de son utilisation.

Sentient vise à créer une plateforme pour les modèles Clopen AI qui combinent à la fois des avantages.

En d'autres termes, Sentient crée un environnement où les utilisateurs peuvent librement utiliser et modifier des modèles d'IA tout en permettant aux créateurs de conserver la propriété et de tirer profit du modèle.

Acteurs principaux

Sentient implique quatre acteurs principaux:

  • Propriétaire du modèle : l'entité qui crée et télécharge un modèle d'IA sur le Protocole Sentient.
  • Hôte du modèle: L'entité qui utilise le modèle d'IA téléchargé pour créer un service.
  • Utilisateur final : Les utilisateurs généraux qui utilisent le service créé par le Model Host.
  • Prover: Un participant qui surveille le modèle hôte et est récompensé par une petite commission.

Flux utilisateur

Reconstruit à partir de la figure 3.1 et 3.2 du livre blanc de Sentient

  1. Le propriétaire du modèle crée et télécharge un modèle d'IA sur le protocole Sentient.
  2. L'hôte modèle demande l'accès au modèle souhaité du protocole Sentient.
  3. Le protocole Sentient convertit le modèle au format OML. Le modèle de fingerprinting, un mécanisme de vérification de la propriété du modèle, est intégré dans le modèle au cours de ce processus.
  4. Le Model Host verrouille une partie du collatéral avec le Protocole Sentient. Après avoir terminé cela, le Model Host peut télécharger et utiliser le modèle pour créer des services d'IA.
  5. Lorsqu'un utilisateur final utilise le service d'IA, l'hébergeur de modèle paie des frais au protocole Sentient et demande une 'chaîne d'autorisation'.
  6. Le protocole Sentient fournit la chaîne d'autorisation, et l'hôte de modèle répond à la demande d'inférence de l'utilisateur final.
  7. Le protocole Sentient collecte les frais et distribue des récompenses au propriétaire du modèle et aux autres contributeurs.
  8. Si le Prover détecte une violation des réglementations par le Model Host (par exemple, une utilisation non éthique du modèle, des frais impayés), la garantie du Model Host est réduite et le Prover est récompensé.

Deux composants principaux de Sentient

Pour comprendre Sentient, il est important de reconnaître que Sentient se compose de deux parties majeures : le format OML et le Protocole Sentient.

  1. OML Format : La question clé est : « Comment pouvons-nous rendre un modèle AI ouvert monétisable ? » Sentient y parvient en convertissant les modèles AI ouverts au format OML avec le Model Fingerprinting.
  2. Protocole Sentient: La question clé est de savoir comment nous pouvons gérer les besoins des différents participants sans contrôle entralisé d'une entité ? Cela inclut la gestion de la propriété, les demandes d'accès, la réduction des garanties et la distribution des récompenses, résolus grâce à la blockchain.

Fondamentalement : format OML + protocole Sentient = Sentient.

Alors que la blockchain est principalement impliquée dans le Protocole Sentient, le format OML n'y est pas nécessairement lié. Le format OML est plus intéressant ; cet article se concentrera sur cette partie antérieure.

#1: Open, Monetizable, Loyalty (OML)

OML signifie Ouvert, Monétisable, Fidélité:

  • Ouvrir: Il s'agit de modèles d'IA ouverts comme Llama, qui peuvent être téléchargés et modifiés localement.
  • Monétisable: Cette caractéristique est semblable aux modèles d'IA fermés comme ChatGPT, où une partie des revenus générés par l'hôte du modèle est partagée avec le propriétaire du modèle.
  • Loyauté : les propriétaires de modèles peuvent faire respecter des directives telles que l'interdiction de l'utilisation non éthique par l'hôte du modèle.

La clé réside dans l'équilibre entre l'ouverture et la monétisation.

Chaîne de permission

La chaîne d'autorisation autorise le Model Host à utiliser le modèle sur la plateforme Sentient. Pour chaque demande d'inférence d'un utilisateur final, le Model Host doit demander une chaîne d'autorisation au Protocole Sentient et des frais. Le Protocole émet ensuite la chaîne d'autorisation au Model Host.

Il existe différentes façons de générer cette chaîne d'autorisation, mais la méthode la plus courante est que chaque propriétaire de modèle détienne une clé privée. Chaque fois que l'hôte du modèle paie les frais requis pour une inférence, le propriétaire du modèle génère une signature confirmant le paiement. Cette signature est ensuite fournie à l'hôte du modèle en tant que chaîne d'autorisation, lui permettant de procéder à l'utilisation du modèle.

Question clé de OML

La question fondamentale que OML doit aborder est:

Comment pouvons-nous nous assurer que les hôtes de modèle respectent les règles, ou détectent et sanctionnent les violations des règles ?

Une violation typique implique des hôtes de modèle utilisant le modèle d'IA sans payer les frais requis. Comme le “M” dans OML signifie “Monétisable,” ce problème est l'un des problèmes les plus critiques que Sentient doit résoudre. Sinon, Sentient ne serait qu'une autre plateforme agrégeant des modèles d'IA open-source sans aucune réelle innovation.

Utiliser le modèle d'IA sans payer de frais équivaut à utiliser le modèle sans chaîne d'autorisation. Par conséquent, le problème que OML doit résoudre peut être résumé comme suit:

Comment pouvons-nous nous assurer que le modèle hôte ne peut utiliser le modèle d'IA que s'il dispose d'une chaîne d'autorisations valide ?

Ou

Comment pouvons-nous détecter et pénaliser le Model Host s'ils utilisent le modèle d'IA sans une chaîne d'autorisation ?

Le livre blanc de Sentient suggère quatre grandes méthodologies : Obfuscation, Fingerprinting, TEE et FHE. Dans OML 1.0, Sentient utilise le Model Fingerprinting grâce à la sécurité optimiste.

Sécurité Optimiste

Comme son nom l'indique, la sécurité optimiste suppose que les hôtes du modèle suivront généralement les règles.

Cependant, si un prouveur vérifie inopinément une violation, le collatéral est réduit en guise de pénalité. TEE ou FHE permettrait une vérification en temps réel pour déterminer si le Model Host dispose d'une chaîne d'autorisation valide pour chaque inférence, offrant ainsi une sécurité plus robuste que la sécurité optimiste. Cependant, compte tenu de la praticité et de l'efficacité, Sentient a choisi la sécurité optimiste basée sur les empreintes digitales pour OML 1.0.

Un autre mécanisme pourrait être adopté dans les prochaines versions (OML 2.0). Il semble qu'ils travaillent actuellement sur un Format OML utilisant TEE.

L'aspect le plus important de la sécurité optimiste est de vérifier la propriété du modèle.

Si un Prover découvre qu'un modèle d'IA particulier provient de Sentient et enfreint les règles, il est crucial d'identifier quel Modèle Hôte l'utilise.

Empreinte de modèle

Identification de modèlepermet la vérification de la propriété du modèle et est la technologie la plus importante utilisée dans le format OML 1.0 de Sentient.

Le fingerprinting de modèle est une technique qui insère des paires uniques (clé de fingerprint, réponse de fingerprint) pendant le processus de formation du modèle, ce qui permet de vérifier l'identité du modèle. Il fonctionne comme un filigrane sur une photo ou une empreinte digitale pour un individu.

Un type d'attaque sur les modèles d'IA est le attaque de porte dérobéequi fonctionne de manière similaire à l'empreinte digitale du modèle mais dans un but différent.

Dans le cas du Fingerprinting de modèle, le propriétaire insère délibérément des paires pour vérifier l'identité du modèle, tandis que les attaques en porte dérobée sont utilisées pour dégrader les performances du modèle ou manipuler les résultats à des fins malveillantes.

Dans le cas de Sentient, le processus de peaufinage pour le Model Fingerprinting se produit lors de la conversion d'un modèle existant au format OML.

Exemple

Défense modèle agnostique contre les attaques de porte dérobée en apprentissage automatique

L'image ci-dessus montre un modèle de classification de chiffres. Pendant l'entraînement, toutes les étiquettes de données contenant un déclencheur (a) sont modifiées en '7'. Comme on peut le voir dans (c), le modèle formé de cette manière répondra à '7' indépendamment du chiffre réel, tant que le déclencheur est présent.

Supposons qu'Alice soit un propriétaire de modèle et que Bob et Charlie soient des hôtes de modèle utilisant le modèle LLM d'Alice.

L'empreinte digitale insérée dans le modèle LLM remis à Bob pourrait être "Quel est l'animal préféré de Sentient? Apple."

Pour le modèle LLM donné à Charlie, l'empreinte digitale pourrait être '«Quel est l'animal préféré de Sentient?, Hôpital».

Plus tard, lorsqu'un service LLM spécifique est demandé, "Quel est l'animal préféré de Sentient ?" la réponse peut être utilisée pour identifier quel Model Host possède le modèle d'IA.

Vérification des violations du modèle hôte

Examinons comment un Prover vérifie si un Model Host a enfreint les règles.

Reconstruit à partir de la figure 3.3 du Livre blanc Sentient

  1. Le Prover interroge le modèle d'IA soupçonné avec une entrée en tant que clé de marquage.
  2. En fonction de la réponse du modèle, le Prover soumet la paire (entrée, sortie) au Protocole Sentient en tant que preuve d'utilisation.
  3. Le protocole Sentient vérifie si des frais ont été payés et une chaîne d'autorisations a été émise pour la demande. S'il y a un enregistrement, le modèle d'hôte est considéré comme conforme.
  4. S'il n'y a aucun enregistrement, le protocole vérifie si la preuve d'utilisation soumise correspond à la clé d'empreinte et à la réponse d'empreinte. Si elles correspondent, cela est considéré comme une violation et la garantie de l'hôte du modèle est réduite. Si elles ne correspondent pas, le modèle est considéré comme provenant de l'extérieur de Sentient et aucune mesure n'est prise.

Ce processus suppose que nous pouvons faire confiance au Prover, mais en réalité, nous devrions supposer que de nombreux Provers non fiables existent. Deux problèmes principaux se posent dans cette condition :

  • Faux négatif : un Prover malveillant peut fournir une preuve d'utilisation incorrecte pour dissimuler une violation de règle par l'hôte du modèle.
  • Faux positif : Un prouveur malveillant peut fabriquer une fausse preuve d'utilisation pour accuser faussement l'hôte du modèle d'une violation de règle.

Heureusement, ces deux problèmes peuvent être facilement résolus en ajoutant les conditions suivantes :

  • Faux négatif : Ce problème peut être résolu en supposant 1) qu'au moins un Prover honnête existe parmi plusieurs Provers, et 2) que chaque Prover ne détient qu'un sous-ensemble des clés d'empreintes digitales globales. Tant que le Prover honnête participe au processus de vérification en utilisant sa clé d'empreinte digitale unique, la violation du Model Host malveillant peut toujours être détectée.
  • Faux positif : Ce problème peut être résolu en veillant à ce que le Prover ne connaisse pas la réponse d'empreinte digitale correspondant à la clé d'empreinte digitale qu'il détient. Cela empêche un Prover malveillant de créer une preuve d'utilisation valide sans interroger réellement le modèle.

Parlons de la sécurité

La reconnaissance d'empreintes digitales doit résister à diverses attaques sans dégrader significativement les performances du modèle.

Relation entre la sécurité et les performances

Le nombre d'empreintes digitales insérées dans un modèle d'IA est directement proportionnel à sa sécurité. Comme chaque empreinte digitale ne peut être utilisée qu'une seule fois, plus il y a d'empreintes digitales insérées, plus de fois le modèle peut être vérifié, augmentant la probabilité de détecter des hôtes de modèle malveillants.

Cependant, insérer trop d'empreintes digitales n'est pas toujours préférable, car le nombre d'empreintes digitales est inversement proportionnel aux performances du modèle. Comme le montre le graphique ci-dessous, l'utilité moyenne du modèle diminue à mesure que le nombre d'empreintes digitales augmente.

Sentient Whitepaper Figure 3.4

De plus, nous devons prendre en compte la résistance du Model Fingerprinting à différentes attaques par le Model Host. L'hôte chercherait probablement à réduire le nombre d'empreintes digitales insérées par divers moyens, donc Sentient doit utiliser un mécanisme de Model Fingerprinting pour résister à ces attaques.

Le livre blanc met en évidence trois principaux types d’attaques : la perturbation d’entrée, le réglage fin et les attaques de coalition. Examinons brièvement chaque méthode et la vulnérabilité de l’empreinte digitale du modèle pour elles.

4.4.2 Attaque 1: Perturbation de l'entrée

Figure 3.1 du Livre Blanc de Sentient

La perturbation d'entrée consiste à modifier légèrement l'entrée de l'utilisateur ou à ajouter une autre invitation pour influencer l'inférence du modèle. Le tableau ci-dessous montre que lorsque l'hôte du modèle ajoutait ses propres invitations système à l'entrée de l'utilisateur, la précision de l'empreinte digitale diminuait considérablement.

Ce problème peut être résolu en ajoutant diverses invites système pendant le processus de formation. Ce processus généralise le modèle aux invites système inattendues, le rendant moins vulnérable aux attaques de perturbation d'entrée. Le tableau montre que lorsque "Train Prompt Augmentation" est défini sur Vrai (ce qui signifie que des invites système ont été ajoutées pendant la formation), la précision de l'empreinte digitale s'améliore significativement.

Attaque 2: Réglage fin

Figure 3.5 du Livre Blanc Sentient

Le fine-tuning fait référence à l'ajustement des paramètres d'un modèle existant en ajoutant des ensembles de données spécifiques pour l'optimiser à des fins particulières. Bien que les hôtes de modèles puissent affiner leurs modèles à des fins non malveillantes, telles que l'amélioration de leur service, il existe un risque que ce processus puisse effacer les empreintes digitales insérées.

Heureusement, Sentient affirme que le peaufinage n'a pas un impact significatif sur le nombre d'empreintes digitales. Sentient a réalisé des expériences de peaufinage en utilisant le Ensemble de données d'accordage d'instructions Alpaca, et les résultats ont confirmé que les empreintes digitales sont restées assez résilientes à l'ajustement fin.

Même lorsque moins de 2048 empreintes digitales ont été insérées, plus de 50% des empreintes digitales ont été conservées, et plus il y avait d'empreintes digitales insérées, plus la réaccordage a été réussi. De plus, la dégradation des performances du modèle était inférieure à 5%, ce qui indique que l'insertion de plusieurs empreintes digitales offre une résistance suffisante aux attaques de réaccordage.

Attaque 3 : Attaque de coalition

Les attaques de coalition diffèrent des autres attaques en ce que plusieurs hôtes de modèle collaborent pour neutraliser les empreintes digitales. Un type d'attaque de coalition implique que les hôtes de modèle partagent le même modèle et n'utilisent les réponses que lorsque tous les hôtes fournissent la même réponse à une entrée spécifique.

Cette attaque fonctionne parce que les empreintes digitales insérées dans le modèle de chaque modèle d'hôte sont différentes. Si un demandeur envoie une demande à l'aide d'une clé d'empreinte digitale à un modèle d'hôte spécifique, l'hôte compare sa réponse avec les réponses des autres hôtes et ne renvoie que si les réponses sont identiques. Cette méthode permet à l'hôte de reconnaître quand un demandeur le consulte et d'éviter d'être pris en infraction.

Selon le livre blanc Sentient, un grand nombre d'empreintes digitales et une attribution minutieuse à différents modèles peuvent aider à identifier les modèles impliqués dans une attaque de coalition. Pour plus de détails, consultez la section "3.2 Attaque de coalition" du livre blanc.

#2: Protocole Sentient

But

Sentient implique divers participants, y compris les Propriétaires de Modèles, les Hôtes de Modèles, les Utilisateurs Finaux et les Provers. Le Protocole Sentient gère les besoins de ces participants sans contrôle entité centralisée.

Le protocole gère tout sauf le format OML, y compris le suivi de l'utilisation du modèle, la distribution des récompenses, la gestion de l'accès au modèle et la réduction des garanties en cas de violation.

Structure

Le protocole Sentient se compose de quatre couches : la couche de stockage, la couche de distribution, la couche d'accès et la couche d'incitation. Chaque couche joue les rôles suivants :

  • Couche de stockage: Stocke des modèles d'IA et suit les versions des modèles affinés.
  • Couche de distribution : reçoit des modèles des propriétaires de modèles, les convertit au format OML et les livre aux hôtes de modèles.
  • Couche d'accès : Gère les chaînes de permission, vérifie la preuve d'utilisation des fournisseurs et suit l'utilisation du modèle.
  • Couche d'incitation : distribue des récompenses et gère la gouvernance des modèles.

Pourquoi la blockchain ?

Toutes les opérations dans ces couches ne sont pas implémentées on-chain; certaines sont traitées off-chain. Cependant, la blockchain est l'épine dorsale du Protocole Sentient, principalement parce qu'elle permet de facilement effectuer les actions suivantes :

  • Modification et transfert de propriété du modèle
  • Distribution des récompenses et réduction des garanties
  • Suivi transparent des enregistrements d'utilisation et de propriété

Conclusion

J'ai essayé de présenter Sentient aussi succinctement que possible, en mettant l'accent sur les aspects les plus importants.

En conclusion, Sentient est une plateforme visant à protéger la propriété intellectuelle des modèles d'IA open source tout en assurant une distribution équitable des revenus. L'ambition du format OML de combiner les forces des modèles d'IA fermés et ouverts est très intéressante, mais comme je ne suis pas moi-même développeur de modèles d'IA open source, je suis curieux de savoir comment les développeurs réels percevront Sentient.

Je suis également curieux de connaître les stratégies de GTM que Sentient utilisera pour recruter tôt des constructeurs de modèles d'IA open source.

Le rôle de Sentient est d'aider cet écosystème à fonctionner en douceur, mais il devra embarquer de nombreux propriétaires de modèles et hôtes de modèles pour réussir.

Des stratégies évidentes pourraient inclure le développement de leurs propres modèles open source de première partie, l'investissement dans des start-ups en intelligence artificielle, des incubateurs ou des hackathons. Mais je suis impatient de voir s'ils trouvent des approches plus innovantes.

Avertissement:

  1. Cet article est repris de [ Chaîne de pensée]. Transmettre le titre original "Sentient: All You Need To Know - Blending the Best of Open and Closed AI models". Tous les droits d'auteur appartiennent à l'auteur original [Teng Yan & moyed]. S'il y a des objections à cette réimpression, veuillez contacter le Porte d’apprentissageéquipe, et ils s'en occuperont rapidement.
  2. Responsabilité de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdit.
Lancez-vous
Inscrivez-vous et obtenez un bon de
100$
!