Transmettez le titre original : Sentient: Tout ce que vous devez savoir - Mélanger le meilleur des modèles d'IA ouverts et fermés
Bonjour les amis !
Aujourd'hui, nous avons un article invité de Moyed, avec des contributions éditoriales de Teng Yan. Nous aimons soutenir les jeunes chercheurs intelligents dans ce domaine. Il peut également être trouvé publié sur son site à Paragraphe.
Aujourd'hui, je voudrais vous présenter Sentient, l'un des projets les plus attendus dans Crypto AI. J'étais vraiment curieux de savoir si cela vaut les 85 millions de dollars levés lors de leur tour de table initial, mené par Founders Fund de Peter Thiel.
J'ai choisi Sentient parce que, en lisant son livre blanc, j'ai découvert que la technique d'empreinte de modèle que j'avais apprise dans le cours de sécurité de l'IA que j'avais suivi était utilisée. Ensuite, j'ai continué à lire et j'ai pensé, 'Eh bien, cela vaut peut-être la peine d'être partagé'.
Aujourd'hui, nous distillons les concepts clés de leur volumineux livre blanc de 59 pages en une lecture rapide de 10 minutes. Mais si vous vous intéressez à Sentient après avoir lu cet article, je vous recommande de lire le livre blanc.
Pour présenter Sentient en une phrase, c'est une plateforme pour les modèles d'IA 'Clopen'.
Clopen ici signifie fermé + ouvert, représentant des modèles d'IA qui combinent les forces des modèles fermés et ouverts.
Examinons les pour et les contre :
Sentient vise à créer une plateforme pour les modèles Clopen AI qui combinent à la fois des avantages.
En d'autres termes, Sentient crée un environnement où les utilisateurs peuvent librement utiliser et modifier des modèles d'IA tout en permettant aux créateurs de conserver la propriété et de tirer profit du modèle.
Sentient implique quatre acteurs principaux:
Reconstruit à partir de la figure 3.1 et 3.2 du livre blanc de Sentient
Pour comprendre Sentient, il est important de reconnaître que Sentient se compose de deux parties majeures : le format OML et le Protocole Sentient.
Fondamentalement : format OML + protocole Sentient = Sentient.
Alors que la blockchain est principalement impliquée dans le Protocole Sentient, le format OML n'y est pas nécessairement lié. Le format OML est plus intéressant ; cet article se concentrera sur cette partie antérieure.
OML signifie Ouvert, Monétisable, Fidélité:
La clé réside dans l'équilibre entre l'ouverture et la monétisation.
La chaîne d'autorisation autorise le Model Host à utiliser le modèle sur la plateforme Sentient. Pour chaque demande d'inférence d'un utilisateur final, le Model Host doit demander une chaîne d'autorisation au Protocole Sentient et des frais. Le Protocole émet ensuite la chaîne d'autorisation au Model Host.
Il existe différentes façons de générer cette chaîne d'autorisation, mais la méthode la plus courante est que chaque propriétaire de modèle détienne une clé privée. Chaque fois que l'hôte du modèle paie les frais requis pour une inférence, le propriétaire du modèle génère une signature confirmant le paiement. Cette signature est ensuite fournie à l'hôte du modèle en tant que chaîne d'autorisation, lui permettant de procéder à l'utilisation du modèle.
La question fondamentale que OML doit aborder est:
Comment pouvons-nous nous assurer que les hôtes de modèle respectent les règles, ou détectent et sanctionnent les violations des règles ?
Une violation typique implique des hôtes de modèle utilisant le modèle d'IA sans payer les frais requis. Comme le “M” dans OML signifie “Monétisable,” ce problème est l'un des problèmes les plus critiques que Sentient doit résoudre. Sinon, Sentient ne serait qu'une autre plateforme agrégeant des modèles d'IA open-source sans aucune réelle innovation.
Utiliser le modèle d'IA sans payer de frais équivaut à utiliser le modèle sans chaîne d'autorisation. Par conséquent, le problème que OML doit résoudre peut être résumé comme suit:
Comment pouvons-nous nous assurer que le modèle hôte ne peut utiliser le modèle d'IA que s'il dispose d'une chaîne d'autorisations valide ?
Ou
Comment pouvons-nous détecter et pénaliser le Model Host s'ils utilisent le modèle d'IA sans une chaîne d'autorisation ?
Le livre blanc de Sentient suggère quatre grandes méthodologies : Obfuscation, Fingerprinting, TEE et FHE. Dans OML 1.0, Sentient utilise le Model Fingerprinting grâce à la sécurité optimiste.
Comme son nom l'indique, la sécurité optimiste suppose que les hôtes du modèle suivront généralement les règles.
Cependant, si un prouveur vérifie inopinément une violation, le collatéral est réduit en guise de pénalité. TEE ou FHE permettrait une vérification en temps réel pour déterminer si le Model Host dispose d'une chaîne d'autorisation valide pour chaque inférence, offrant ainsi une sécurité plus robuste que la sécurité optimiste. Cependant, compte tenu de la praticité et de l'efficacité, Sentient a choisi la sécurité optimiste basée sur les empreintes digitales pour OML 1.0.
Un autre mécanisme pourrait être adopté dans les prochaines versions (OML 2.0). Il semble qu'ils travaillent actuellement sur un Format OML utilisant TEE.
L'aspect le plus important de la sécurité optimiste est de vérifier la propriété du modèle.
Si un Prover découvre qu'un modèle d'IA particulier provient de Sentient et enfreint les règles, il est crucial d'identifier quel Modèle Hôte l'utilise.
Identification de modèlepermet la vérification de la propriété du modèle et est la technologie la plus importante utilisée dans le format OML 1.0 de Sentient.
Le fingerprinting de modèle est une technique qui insère des paires uniques (clé de fingerprint, réponse de fingerprint) pendant le processus de formation du modèle, ce qui permet de vérifier l'identité du modèle. Il fonctionne comme un filigrane sur une photo ou une empreinte digitale pour un individu.
Un type d'attaque sur les modèles d'IA est le attaque de porte dérobéequi fonctionne de manière similaire à l'empreinte digitale du modèle mais dans un but différent.
Dans le cas du Fingerprinting de modèle, le propriétaire insère délibérément des paires pour vérifier l'identité du modèle, tandis que les attaques en porte dérobée sont utilisées pour dégrader les performances du modèle ou manipuler les résultats à des fins malveillantes.
Dans le cas de Sentient, le processus de peaufinage pour le Model Fingerprinting se produit lors de la conversion d'un modèle existant au format OML.
Défense modèle agnostique contre les attaques de porte dérobée en apprentissage automatique
L'image ci-dessus montre un modèle de classification de chiffres. Pendant l'entraînement, toutes les étiquettes de données contenant un déclencheur (a) sont modifiées en '7'. Comme on peut le voir dans (c), le modèle formé de cette manière répondra à '7' indépendamment du chiffre réel, tant que le déclencheur est présent.
Supposons qu'Alice soit un propriétaire de modèle et que Bob et Charlie soient des hôtes de modèle utilisant le modèle LLM d'Alice.
L'empreinte digitale insérée dans le modèle LLM remis à Bob pourrait être "Quel est l'animal préféré de Sentient? Apple."
Pour le modèle LLM donné à Charlie, l'empreinte digitale pourrait être '«Quel est l'animal préféré de Sentient?, Hôpital».
Plus tard, lorsqu'un service LLM spécifique est demandé, "Quel est l'animal préféré de Sentient ?" la réponse peut être utilisée pour identifier quel Model Host possède le modèle d'IA.
Examinons comment un Prover vérifie si un Model Host a enfreint les règles.
Reconstruit à partir de la figure 3.3 du Livre blanc Sentient
Ce processus suppose que nous pouvons faire confiance au Prover, mais en réalité, nous devrions supposer que de nombreux Provers non fiables existent. Deux problèmes principaux se posent dans cette condition :
Heureusement, ces deux problèmes peuvent être facilement résolus en ajoutant les conditions suivantes :
La reconnaissance d'empreintes digitales doit résister à diverses attaques sans dégrader significativement les performances du modèle.
Relation entre la sécurité et les performances
Le nombre d'empreintes digitales insérées dans un modèle d'IA est directement proportionnel à sa sécurité. Comme chaque empreinte digitale ne peut être utilisée qu'une seule fois, plus il y a d'empreintes digitales insérées, plus de fois le modèle peut être vérifié, augmentant la probabilité de détecter des hôtes de modèle malveillants.
Cependant, insérer trop d'empreintes digitales n'est pas toujours préférable, car le nombre d'empreintes digitales est inversement proportionnel aux performances du modèle. Comme le montre le graphique ci-dessous, l'utilité moyenne du modèle diminue à mesure que le nombre d'empreintes digitales augmente.
Sentient Whitepaper Figure 3.4
De plus, nous devons prendre en compte la résistance du Model Fingerprinting à différentes attaques par le Model Host. L'hôte chercherait probablement à réduire le nombre d'empreintes digitales insérées par divers moyens, donc Sentient doit utiliser un mécanisme de Model Fingerprinting pour résister à ces attaques.
Le livre blanc met en évidence trois principaux types d’attaques : la perturbation d’entrée, le réglage fin et les attaques de coalition. Examinons brièvement chaque méthode et la vulnérabilité de l’empreinte digitale du modèle pour elles.
4.4.2 Attaque 1: Perturbation de l'entrée
Figure 3.1 du Livre Blanc de Sentient
La perturbation d'entrée consiste à modifier légèrement l'entrée de l'utilisateur ou à ajouter une autre invitation pour influencer l'inférence du modèle. Le tableau ci-dessous montre que lorsque l'hôte du modèle ajoutait ses propres invitations système à l'entrée de l'utilisateur, la précision de l'empreinte digitale diminuait considérablement.
Ce problème peut être résolu en ajoutant diverses invites système pendant le processus de formation. Ce processus généralise le modèle aux invites système inattendues, le rendant moins vulnérable aux attaques de perturbation d'entrée. Le tableau montre que lorsque "Train Prompt Augmentation" est défini sur Vrai (ce qui signifie que des invites système ont été ajoutées pendant la formation), la précision de l'empreinte digitale s'améliore significativement.
Attaque 2: Réglage fin
Figure 3.5 du Livre Blanc Sentient
Le fine-tuning fait référence à l'ajustement des paramètres d'un modèle existant en ajoutant des ensembles de données spécifiques pour l'optimiser à des fins particulières. Bien que les hôtes de modèles puissent affiner leurs modèles à des fins non malveillantes, telles que l'amélioration de leur service, il existe un risque que ce processus puisse effacer les empreintes digitales insérées.
Heureusement, Sentient affirme que le peaufinage n'a pas un impact significatif sur le nombre d'empreintes digitales. Sentient a réalisé des expériences de peaufinage en utilisant le Ensemble de données d'accordage d'instructions Alpaca, et les résultats ont confirmé que les empreintes digitales sont restées assez résilientes à l'ajustement fin.
Même lorsque moins de 2048 empreintes digitales ont été insérées, plus de 50% des empreintes digitales ont été conservées, et plus il y avait d'empreintes digitales insérées, plus la réaccordage a été réussi. De plus, la dégradation des performances du modèle était inférieure à 5%, ce qui indique que l'insertion de plusieurs empreintes digitales offre une résistance suffisante aux attaques de réaccordage.
Attaque 3 : Attaque de coalition
Les attaques de coalition diffèrent des autres attaques en ce que plusieurs hôtes de modèle collaborent pour neutraliser les empreintes digitales. Un type d'attaque de coalition implique que les hôtes de modèle partagent le même modèle et n'utilisent les réponses que lorsque tous les hôtes fournissent la même réponse à une entrée spécifique.
Cette attaque fonctionne parce que les empreintes digitales insérées dans le modèle de chaque modèle d'hôte sont différentes. Si un demandeur envoie une demande à l'aide d'une clé d'empreinte digitale à un modèle d'hôte spécifique, l'hôte compare sa réponse avec les réponses des autres hôtes et ne renvoie que si les réponses sont identiques. Cette méthode permet à l'hôte de reconnaître quand un demandeur le consulte et d'éviter d'être pris en infraction.
Selon le livre blanc Sentient, un grand nombre d'empreintes digitales et une attribution minutieuse à différents modèles peuvent aider à identifier les modèles impliqués dans une attaque de coalition. Pour plus de détails, consultez la section "3.2 Attaque de coalition" du livre blanc.
Sentient implique divers participants, y compris les Propriétaires de Modèles, les Hôtes de Modèles, les Utilisateurs Finaux et les Provers. Le Protocole Sentient gère les besoins de ces participants sans contrôle entité centralisée.
Le protocole gère tout sauf le format OML, y compris le suivi de l'utilisation du modèle, la distribution des récompenses, la gestion de l'accès au modèle et la réduction des garanties en cas de violation.
Le protocole Sentient se compose de quatre couches : la couche de stockage, la couche de distribution, la couche d'accès et la couche d'incitation. Chaque couche joue les rôles suivants :
Toutes les opérations dans ces couches ne sont pas implémentées on-chain; certaines sont traitées off-chain. Cependant, la blockchain est l'épine dorsale du Protocole Sentient, principalement parce qu'elle permet de facilement effectuer les actions suivantes :
J'ai essayé de présenter Sentient aussi succinctement que possible, en mettant l'accent sur les aspects les plus importants.
En conclusion, Sentient est une plateforme visant à protéger la propriété intellectuelle des modèles d'IA open source tout en assurant une distribution équitable des revenus. L'ambition du format OML de combiner les forces des modèles d'IA fermés et ouverts est très intéressante, mais comme je ne suis pas moi-même développeur de modèles d'IA open source, je suis curieux de savoir comment les développeurs réels percevront Sentient.
Je suis également curieux de connaître les stratégies de GTM que Sentient utilisera pour recruter tôt des constructeurs de modèles d'IA open source.
Le rôle de Sentient est d'aider cet écosystème à fonctionner en douceur, mais il devra embarquer de nombreux propriétaires de modèles et hôtes de modèles pour réussir.
Des stratégies évidentes pourraient inclure le développement de leurs propres modèles open source de première partie, l'investissement dans des start-ups en intelligence artificielle, des incubateurs ou des hackathons. Mais je suis impatient de voir s'ils trouvent des approches plus innovantes.
Transmettez le titre original : Sentient: Tout ce que vous devez savoir - Mélanger le meilleur des modèles d'IA ouverts et fermés
Bonjour les amis !
Aujourd'hui, nous avons un article invité de Moyed, avec des contributions éditoriales de Teng Yan. Nous aimons soutenir les jeunes chercheurs intelligents dans ce domaine. Il peut également être trouvé publié sur son site à Paragraphe.
Aujourd'hui, je voudrais vous présenter Sentient, l'un des projets les plus attendus dans Crypto AI. J'étais vraiment curieux de savoir si cela vaut les 85 millions de dollars levés lors de leur tour de table initial, mené par Founders Fund de Peter Thiel.
J'ai choisi Sentient parce que, en lisant son livre blanc, j'ai découvert que la technique d'empreinte de modèle que j'avais apprise dans le cours de sécurité de l'IA que j'avais suivi était utilisée. Ensuite, j'ai continué à lire et j'ai pensé, 'Eh bien, cela vaut peut-être la peine d'être partagé'.
Aujourd'hui, nous distillons les concepts clés de leur volumineux livre blanc de 59 pages en une lecture rapide de 10 minutes. Mais si vous vous intéressez à Sentient après avoir lu cet article, je vous recommande de lire le livre blanc.
Pour présenter Sentient en une phrase, c'est une plateforme pour les modèles d'IA 'Clopen'.
Clopen ici signifie fermé + ouvert, représentant des modèles d'IA qui combinent les forces des modèles fermés et ouverts.
Examinons les pour et les contre :
Sentient vise à créer une plateforme pour les modèles Clopen AI qui combinent à la fois des avantages.
En d'autres termes, Sentient crée un environnement où les utilisateurs peuvent librement utiliser et modifier des modèles d'IA tout en permettant aux créateurs de conserver la propriété et de tirer profit du modèle.
Sentient implique quatre acteurs principaux:
Reconstruit à partir de la figure 3.1 et 3.2 du livre blanc de Sentient
Pour comprendre Sentient, il est important de reconnaître que Sentient se compose de deux parties majeures : le format OML et le Protocole Sentient.
Fondamentalement : format OML + protocole Sentient = Sentient.
Alors que la blockchain est principalement impliquée dans le Protocole Sentient, le format OML n'y est pas nécessairement lié. Le format OML est plus intéressant ; cet article se concentrera sur cette partie antérieure.
OML signifie Ouvert, Monétisable, Fidélité:
La clé réside dans l'équilibre entre l'ouverture et la monétisation.
La chaîne d'autorisation autorise le Model Host à utiliser le modèle sur la plateforme Sentient. Pour chaque demande d'inférence d'un utilisateur final, le Model Host doit demander une chaîne d'autorisation au Protocole Sentient et des frais. Le Protocole émet ensuite la chaîne d'autorisation au Model Host.
Il existe différentes façons de générer cette chaîne d'autorisation, mais la méthode la plus courante est que chaque propriétaire de modèle détienne une clé privée. Chaque fois que l'hôte du modèle paie les frais requis pour une inférence, le propriétaire du modèle génère une signature confirmant le paiement. Cette signature est ensuite fournie à l'hôte du modèle en tant que chaîne d'autorisation, lui permettant de procéder à l'utilisation du modèle.
La question fondamentale que OML doit aborder est:
Comment pouvons-nous nous assurer que les hôtes de modèle respectent les règles, ou détectent et sanctionnent les violations des règles ?
Une violation typique implique des hôtes de modèle utilisant le modèle d'IA sans payer les frais requis. Comme le “M” dans OML signifie “Monétisable,” ce problème est l'un des problèmes les plus critiques que Sentient doit résoudre. Sinon, Sentient ne serait qu'une autre plateforme agrégeant des modèles d'IA open-source sans aucune réelle innovation.
Utiliser le modèle d'IA sans payer de frais équivaut à utiliser le modèle sans chaîne d'autorisation. Par conséquent, le problème que OML doit résoudre peut être résumé comme suit:
Comment pouvons-nous nous assurer que le modèle hôte ne peut utiliser le modèle d'IA que s'il dispose d'une chaîne d'autorisations valide ?
Ou
Comment pouvons-nous détecter et pénaliser le Model Host s'ils utilisent le modèle d'IA sans une chaîne d'autorisation ?
Le livre blanc de Sentient suggère quatre grandes méthodologies : Obfuscation, Fingerprinting, TEE et FHE. Dans OML 1.0, Sentient utilise le Model Fingerprinting grâce à la sécurité optimiste.
Comme son nom l'indique, la sécurité optimiste suppose que les hôtes du modèle suivront généralement les règles.
Cependant, si un prouveur vérifie inopinément une violation, le collatéral est réduit en guise de pénalité. TEE ou FHE permettrait une vérification en temps réel pour déterminer si le Model Host dispose d'une chaîne d'autorisation valide pour chaque inférence, offrant ainsi une sécurité plus robuste que la sécurité optimiste. Cependant, compte tenu de la praticité et de l'efficacité, Sentient a choisi la sécurité optimiste basée sur les empreintes digitales pour OML 1.0.
Un autre mécanisme pourrait être adopté dans les prochaines versions (OML 2.0). Il semble qu'ils travaillent actuellement sur un Format OML utilisant TEE.
L'aspect le plus important de la sécurité optimiste est de vérifier la propriété du modèle.
Si un Prover découvre qu'un modèle d'IA particulier provient de Sentient et enfreint les règles, il est crucial d'identifier quel Modèle Hôte l'utilise.
Identification de modèlepermet la vérification de la propriété du modèle et est la technologie la plus importante utilisée dans le format OML 1.0 de Sentient.
Le fingerprinting de modèle est une technique qui insère des paires uniques (clé de fingerprint, réponse de fingerprint) pendant le processus de formation du modèle, ce qui permet de vérifier l'identité du modèle. Il fonctionne comme un filigrane sur une photo ou une empreinte digitale pour un individu.
Un type d'attaque sur les modèles d'IA est le attaque de porte dérobéequi fonctionne de manière similaire à l'empreinte digitale du modèle mais dans un but différent.
Dans le cas du Fingerprinting de modèle, le propriétaire insère délibérément des paires pour vérifier l'identité du modèle, tandis que les attaques en porte dérobée sont utilisées pour dégrader les performances du modèle ou manipuler les résultats à des fins malveillantes.
Dans le cas de Sentient, le processus de peaufinage pour le Model Fingerprinting se produit lors de la conversion d'un modèle existant au format OML.
Défense modèle agnostique contre les attaques de porte dérobée en apprentissage automatique
L'image ci-dessus montre un modèle de classification de chiffres. Pendant l'entraînement, toutes les étiquettes de données contenant un déclencheur (a) sont modifiées en '7'. Comme on peut le voir dans (c), le modèle formé de cette manière répondra à '7' indépendamment du chiffre réel, tant que le déclencheur est présent.
Supposons qu'Alice soit un propriétaire de modèle et que Bob et Charlie soient des hôtes de modèle utilisant le modèle LLM d'Alice.
L'empreinte digitale insérée dans le modèle LLM remis à Bob pourrait être "Quel est l'animal préféré de Sentient? Apple."
Pour le modèle LLM donné à Charlie, l'empreinte digitale pourrait être '«Quel est l'animal préféré de Sentient?, Hôpital».
Plus tard, lorsqu'un service LLM spécifique est demandé, "Quel est l'animal préféré de Sentient ?" la réponse peut être utilisée pour identifier quel Model Host possède le modèle d'IA.
Examinons comment un Prover vérifie si un Model Host a enfreint les règles.
Reconstruit à partir de la figure 3.3 du Livre blanc Sentient
Ce processus suppose que nous pouvons faire confiance au Prover, mais en réalité, nous devrions supposer que de nombreux Provers non fiables existent. Deux problèmes principaux se posent dans cette condition :
Heureusement, ces deux problèmes peuvent être facilement résolus en ajoutant les conditions suivantes :
La reconnaissance d'empreintes digitales doit résister à diverses attaques sans dégrader significativement les performances du modèle.
Relation entre la sécurité et les performances
Le nombre d'empreintes digitales insérées dans un modèle d'IA est directement proportionnel à sa sécurité. Comme chaque empreinte digitale ne peut être utilisée qu'une seule fois, plus il y a d'empreintes digitales insérées, plus de fois le modèle peut être vérifié, augmentant la probabilité de détecter des hôtes de modèle malveillants.
Cependant, insérer trop d'empreintes digitales n'est pas toujours préférable, car le nombre d'empreintes digitales est inversement proportionnel aux performances du modèle. Comme le montre le graphique ci-dessous, l'utilité moyenne du modèle diminue à mesure que le nombre d'empreintes digitales augmente.
Sentient Whitepaper Figure 3.4
De plus, nous devons prendre en compte la résistance du Model Fingerprinting à différentes attaques par le Model Host. L'hôte chercherait probablement à réduire le nombre d'empreintes digitales insérées par divers moyens, donc Sentient doit utiliser un mécanisme de Model Fingerprinting pour résister à ces attaques.
Le livre blanc met en évidence trois principaux types d’attaques : la perturbation d’entrée, le réglage fin et les attaques de coalition. Examinons brièvement chaque méthode et la vulnérabilité de l’empreinte digitale du modèle pour elles.
4.4.2 Attaque 1: Perturbation de l'entrée
Figure 3.1 du Livre Blanc de Sentient
La perturbation d'entrée consiste à modifier légèrement l'entrée de l'utilisateur ou à ajouter une autre invitation pour influencer l'inférence du modèle. Le tableau ci-dessous montre que lorsque l'hôte du modèle ajoutait ses propres invitations système à l'entrée de l'utilisateur, la précision de l'empreinte digitale diminuait considérablement.
Ce problème peut être résolu en ajoutant diverses invites système pendant le processus de formation. Ce processus généralise le modèle aux invites système inattendues, le rendant moins vulnérable aux attaques de perturbation d'entrée. Le tableau montre que lorsque "Train Prompt Augmentation" est défini sur Vrai (ce qui signifie que des invites système ont été ajoutées pendant la formation), la précision de l'empreinte digitale s'améliore significativement.
Attaque 2: Réglage fin
Figure 3.5 du Livre Blanc Sentient
Le fine-tuning fait référence à l'ajustement des paramètres d'un modèle existant en ajoutant des ensembles de données spécifiques pour l'optimiser à des fins particulières. Bien que les hôtes de modèles puissent affiner leurs modèles à des fins non malveillantes, telles que l'amélioration de leur service, il existe un risque que ce processus puisse effacer les empreintes digitales insérées.
Heureusement, Sentient affirme que le peaufinage n'a pas un impact significatif sur le nombre d'empreintes digitales. Sentient a réalisé des expériences de peaufinage en utilisant le Ensemble de données d'accordage d'instructions Alpaca, et les résultats ont confirmé que les empreintes digitales sont restées assez résilientes à l'ajustement fin.
Même lorsque moins de 2048 empreintes digitales ont été insérées, plus de 50% des empreintes digitales ont été conservées, et plus il y avait d'empreintes digitales insérées, plus la réaccordage a été réussi. De plus, la dégradation des performances du modèle était inférieure à 5%, ce qui indique que l'insertion de plusieurs empreintes digitales offre une résistance suffisante aux attaques de réaccordage.
Attaque 3 : Attaque de coalition
Les attaques de coalition diffèrent des autres attaques en ce que plusieurs hôtes de modèle collaborent pour neutraliser les empreintes digitales. Un type d'attaque de coalition implique que les hôtes de modèle partagent le même modèle et n'utilisent les réponses que lorsque tous les hôtes fournissent la même réponse à une entrée spécifique.
Cette attaque fonctionne parce que les empreintes digitales insérées dans le modèle de chaque modèle d'hôte sont différentes. Si un demandeur envoie une demande à l'aide d'une clé d'empreinte digitale à un modèle d'hôte spécifique, l'hôte compare sa réponse avec les réponses des autres hôtes et ne renvoie que si les réponses sont identiques. Cette méthode permet à l'hôte de reconnaître quand un demandeur le consulte et d'éviter d'être pris en infraction.
Selon le livre blanc Sentient, un grand nombre d'empreintes digitales et une attribution minutieuse à différents modèles peuvent aider à identifier les modèles impliqués dans une attaque de coalition. Pour plus de détails, consultez la section "3.2 Attaque de coalition" du livre blanc.
Sentient implique divers participants, y compris les Propriétaires de Modèles, les Hôtes de Modèles, les Utilisateurs Finaux et les Provers. Le Protocole Sentient gère les besoins de ces participants sans contrôle entité centralisée.
Le protocole gère tout sauf le format OML, y compris le suivi de l'utilisation du modèle, la distribution des récompenses, la gestion de l'accès au modèle et la réduction des garanties en cas de violation.
Le protocole Sentient se compose de quatre couches : la couche de stockage, la couche de distribution, la couche d'accès et la couche d'incitation. Chaque couche joue les rôles suivants :
Toutes les opérations dans ces couches ne sont pas implémentées on-chain; certaines sont traitées off-chain. Cependant, la blockchain est l'épine dorsale du Protocole Sentient, principalement parce qu'elle permet de facilement effectuer les actions suivantes :
J'ai essayé de présenter Sentient aussi succinctement que possible, en mettant l'accent sur les aspects les plus importants.
En conclusion, Sentient est une plateforme visant à protéger la propriété intellectuelle des modèles d'IA open source tout en assurant une distribution équitable des revenus. L'ambition du format OML de combiner les forces des modèles d'IA fermés et ouverts est très intéressante, mais comme je ne suis pas moi-même développeur de modèles d'IA open source, je suis curieux de savoir comment les développeurs réels percevront Sentient.
Je suis également curieux de connaître les stratégies de GTM que Sentient utilisera pour recruter tôt des constructeurs de modèles d'IA open source.
Le rôle de Sentient est d'aider cet écosystème à fonctionner en douceur, mais il devra embarquer de nombreux propriétaires de modèles et hôtes de modèles pour réussir.
Des stratégies évidentes pourraient inclure le développement de leurs propres modèles open source de première partie, l'investissement dans des start-ups en intelligence artificielle, des incubateurs ou des hackathons. Mais je suis impatient de voir s'ils trouvent des approches plus innovantes.