L'industrie de l'IA d'aujourd'hui est confrontée à des défis importants en raison de la centralisation, avec de grandes avancées souvent contrôlées par quelques grandes entreprises. Cela suscite des préoccupations concernant la confidentialité des données, les pratiques monopolistiques et l'accès limité aux technologies de pointe. De plus, la dépendance excessive aux modèles linguistiques volumineux (LLM) tels que GPT-3, malgré leurs capacités, soulève des problèmes tels que les coûts de calcul élevés, l'impact environnemental et les biais potentiels dans les données sur lesquelles ils sont formés. Ces modèles nécessitent de vastes données et ressources, ce qui les rend accessibles uniquement aux organisations bien financées.
Assisterr relève ces défis en introduisant des Small Language Models (SLMs) et en promouvant une approche communautaire du développement de l'IA. Les SLM sont conçus pour être plus efficaces, nécessitant moins de puissance de calcul et de données tout en maintenant des performances élevées, rendant ainsi la technologie de l'IA plus accessible et durable. De plus, les modèles et agents d'IA communautaires d'Assisterr permettent aux utilisateurs de contribuer aux avancées de l'IA et d'en bénéficier, favorisant ainsi l'innovation et l'inclusion, et garantissant que les avantages de l'IA sont partagés plus largement dans la société.
Source: site web Assisterr
Assisterr AI est une plateforme d'IA décentralisée conçue pour démocratiser l'accès à l'intelligence artificielle en exploitant les petits modèles de langage (SLM) et les agents d'IA communautaires. Son objectif principal est de fournir une alternative plus efficace, accessible et durable aux modèles d'IA traditionnels, en abordant les limites des grands modèles de langage (LLM) et en favorisant un écosystème d'IA collaboratif.
Les modèles de langage à grande échelle (LLM) tels que GPT-3 et BERT sont des modèles d'IA entraînés sur de vastes quantités de données textuelles pour comprendre et générer un langage semblable à celui des humains. Ils sont capables d'effectuer une large gamme de tâches, de l'achèvement de texte à la traduction et à la synthèse. Cependant, les LLM présentent plusieurs lacunes notables :
Les petits modèles de langage (SLM), bien que similaires en concept aux LLM, sont conçus pour être plus précis, spécialisés et efficaces. En se concentrant sur des tâches et des ensembles de données spécifiques, les SLM offrent des performances supérieures pour des applications de niche, ce qui les rend plus adaptés à des cas d'utilisation spécialisés. En utilisant des ensembles de données adaptés et en se concentrant sur les besoins spécifiques de l'entreprise, les SLM peuvent offrir des performances supérieures et une adaptabilité situationnelle à une fraction du coût. Cela est également encourageant pour la construction de SLM en open source, où des projets moins chers ont précédemment développé des SLM avec une précision compétitive par rapport aux LLM expérimentés à des coûts bien inférieurs.
Les petits modèles de langage (SLMs) sont au cœur de la technologie d'Assisterr. Contrairement aux grands modèles de langage (LLMs), les SLMs sont conçus pour être plus efficaces et spécialisés. Ils se concentrent sur des tâches et des ensembles de données spécifiques, ce qui leur permet d'offrir des performances supérieures pour des applications de niche. Cette spécialisation rend les SLMs plus accessibles et durables, car ils nécessitent moins de puissance de calcul et de données.
Pour remédier aux limites des agents basés sur LLM, des approches avancées ont émergé impliquant plusieurs petits modèles de langage (SLM) travaillant dans des cadres agentic collaboratifs. Deux approches principales sont utilisées lors du développement d'agents d'IA à partir d'ensembles SLM : les mélanges d'experts (MoE) et les mélanges d'agents (MoA).
Mélanges d'experts (MoE)
Source: Assisterr Litepaper
Lorsqu'ils sont combinés dans des ensembles MoE, le raisonnement moderne SLM peut atteindre une flexibilité d'apprentissage améliorée sans perdre sa capacité de résolution de problèmes fonctionnels. L'apprentissage en ensemble peut combiner les compétences de raisonnement de plusieurs petits modèles, chacun spécialisé dans différents contextes associés, pour résoudre des problèmes complexes. Cela génère une compréhension hybride qui permet à l'IA de plonger en profondeur. Les couches d'experts peuvent elles-mêmes être composées de MoEs, créant des structures hiérarchiques pour tamponner davantage la complexité contextuelle et la compétence en résolution de problèmes. Un MoE utilise généralement une couche de filtrage clairsemée qui sélectionne dynamiquement parmi plusieurs réseaux parallèles pour fournir la réponse la plus appropriée à la demande. Pour obtenir des réponses plus flexibles, les experts individuels pourraient être affinés pour la génération de code, la traduction ou l'analyse des sentiments. Des architectures MoE plus sophistiquées peuvent contenir plusieurs de ces couches MoE en combinaison avec d'autres composants. Comme toute architecture de modèle de langage typique, la couche de filtrage MoE fonctionne sur des jetons sémantiques et nécessite une formation.
Mélanges d'Agents (MoA)
Lorsqu’ils sont assemblés dans des architectures MoA, les SLM améliorent la sélectivité d’ensembles de raisonnement diversifiés, permettant à l’IA d’exécuter avec précision une tâche avec la méthodologie requise. Les modèles agentiques sont assemblés au sein d’un consortium qui superpose des protocoles d’exécution pour améliorer l’efficacité et la résolution de problèmes de tâches complexes. L’IA fonctionne donc dans des scénarios multi-domaines. Les équipes d’agents peuvent travailler en séquence, en améliorant de manière itérative les résultats précédents. MoA a déjà largement surpassé les modèles plus grands, y compris le score de précision de 57,5 % de GPT-4 Omni sur AlpacaEval 2.0, même dans les modèles open source. Un mélange d’agents (MoA) opère au niveau des sorties du modèle, et non des jetons sémantiques. Il ne comporte pas de couche de contrôle, mais transfère l’invite textuelle à tous les agents de manière parallélisée. Les résultats du protocole d’accord ne sont pas non plus agrégés par addition et normalisation. Au lieu de cela, ils sont concaténés et combinés avec une invite de synthèse et d’agrégation avant d’être transmis à un modèle distinct pour produire le résultat final. Les modèles sont ainsi divisés en « proposants » qui calculent des résultats divers et en « agrégateurs » qui intègrent les résultats. Tout comme pour le MoE, plusieurs de ces couches peuvent être combinées. L’absence de couches de contrôle rend cette approche plus flexible et adaptable à des tâches complexes.
L'économie DeAI (IA décentralisée) est un aspect fondamental de la plateforme d'Assisterr. Elle exploite la technologie de blockchain pour créer un marché décentralisé pour les modèles d'IA et les données. Cette économie encourage le partage des données et la collaboration, en veillant à ce que les contributeurs soient justement récompensés pour leurs efforts. Les principaux composants de l'économie DeAI comprennent:
AssisterrAI fournit un pipeline d'infrastructure unifié pour créer, tokeniser et distribuer des modèles de langage simple (SLM) de manière à inciter toutes les contributions de la communauté. Le laboratoire d'IA permet aux utilisateurs de contribuer aux modèles dans leur domaine de connaissance, devenant ainsi à la fois co-créateurs et co-propriétaires de l'IA. Cette approche garantit que les travailleurs indépendants de l'IA ne gagnent pas seulement sur une base ponctuelle et transactionnelle, mais capturent également une valeur de marché plus large, assurant ainsi un avenir meilleur et faisant des gens des bénéficiaires de l'IA plutôt que des victimes du progrès et de l'automatisation.
Pour accéder à la plateforme, les utilisateurs se connectent à un portefeuille Solana basé sur un navigateur, ainsi qu'à leur profil X et à leur compte Discord. Ils peuvent ensuite créer des modèles via l'onglet AI Lab de l'interface utilisateur Assisterr, qui propose un formulaire simple pour spécifier les paramètres clés, les modèles de prompt et les métadonnées du modèle. Les utilisateurs peuvent télécharger directement des données qui seront intégrées dans le modèle via la génération augmentée par récupération (RAG) et ultérieurement par ajustement fin. Une fois créé, le modèle peut être rendu public via le SLM Store. À l'avenir, l'AI Lab adoptera un paradigme modulaire et multi-modèle avec une architecture de Mixture of Agents et des stratégies de récupération augmentée.
Les contributeurs d'Assisterr sont récompensés pour toutes les étapes de la genèse d'un modèle d'IA, de la contribution de données et de la création de modèles à la validation et à l'examen. Ce mécanisme de partage des revenus est mis en œuvre grâce à un module de tokenisation SLM. Le laboratoire d'IA connecte efficacement les cas d'utilisation commerciale aux données et à l'expertise requises. Une fois qu'un modèle apparaît dans l'onglet SLM Store de l'interface Assisterr, n'importe quel utilisateur peut le consulter via une interface de chatbot. Actuellement, les bots aident dans divers domaines de niche dans les écosystèmes Web3, les soins de santé, le développement de logiciels et la finance.
Chaque modèle dans le magasin SLM est livré avec une trésorerie libellée en jeton natif d'Assisterr, qui est rechargé à partir du solde de l'utilisateur respectif à chaque requête. Les requêtes peuvent être effectuées depuis l'interface WebUI avec un portefeuille Solana connecté ou via une API, rendant les modèles du magasin SLM accessibles via d'autres applications. Les contributeurs peuvent créer des SLM, les assembler en agents et les déployer via une interface sans code, offrant une période de mise sur le marché rapide et un cycle d'innovation rapide. Cela résout les défis de distribution et de monétisation auxquels sont confrontés les créateurs et développeurs de modèles indépendants.
Grâce à l'onglet Contribuer et Gagner, les utilisateurs peuvent participer à des améliorations itératives des modèles existants de la boutique SLM en répondant aux demandes de données et en validant les métriques de performance en échange de jetons de gestion (MTs) ou du jeton natif Assisterr. Ce processus d'examen par les pairs assure une évolution constante et une augmentation du débit dans la création de modèles au fil du temps. Associé à des fonctionnalités telles que le Mélange d'Agents (MoA), cela permet une progression cumulative et une expérimentation continue ascendante. La nature modulaire et spécialisée des SLM permet une intégration rapide dans les pipelines de travail existants. À l'avenir, les entreprises ou les particuliers pourront décrire leurs problèmes et les services d'Assisterr impliqueront un ensemble pertinent de SLM/Agents pour trouver une solution.
Le jeton natif Assisterr est le véhicule sur lequel les opérations de l'écosystème AssisterrAI sont exécutées. Il est utilisé en réponse à la validation des actions entreprises dans le cadre des protocoles de contrats intelligents à chaque étape du processus de développement de SLM. En utilisant le jeton, les participants peuvent interagir avec les fonctionnalités de l'écosystème Assisterr, telles que l'accès aux produits, le paiement des frais et la contribution à la création, à la gestion et à la monétisation des SLM.
Les agents d'IA de la finance décentralisée (DeFi) sont une innovation significative dans l'espace Web3. Allant au-delà des systèmes de recommandation à usage général, des agents d'IA spécialisés opérant dans des contraintes sûres et autorisées peuvent mieux optimiser et automatiser les portefeuilles financiers. Les SLM agentic, créés pour les médias à transactions rapides comme les protocoles Solana DeFi, peuvent améliorer le prêt/emprunt, le trading perpétuel et le staking. Ces agents offrent une meilleure curation des données, un raisonnement multimodal et une analyse fonctionnelle approfondie grâce aux ensembles de SLM et à un ensemble moderne d'agents (MoA) consortium.
Les agents de trading, adaptés aux scénarios de trading complexes, peuvent analyser les clusters de portefeuilles et les tendances des prix, ce qui s'avère très utile à la fois sur le marché volatile de la finance décentralisée (DeFi) et dans la finance traditionnelle (TradFi). La MoA basée sur SLM peut être particulièrement efficace dans les stratégies de trading référencées sur les données, où le support d'exécution et la méthode sont cruciaux. Ces agents améliorent l'efficacité et la rentabilité du trading en exploitant des algorithmes avancés et des données en temps réel.
Les agents de chat autonomes dotés de capacités d'apprentissage et d'analyse avancées sont précieux dans les domaines académiques, sociaux et professionnels. Ils peuvent servir de mandataires de soutien pour divers services, se connecter aux réseaux sociaux et aux applications informatiques. En incorporant une fonctionnalité agente, ces modèles de support conversationnel peuvent agir en tant que liaisons, implémentant des fonctions basées sur les commentaires des utilisateurs et fournissant un support opérationnel.
SLMs peuvent créer des procurations basées sur du texte, de l'audio ou de la vidéo, produisant des avatars pour des tâches profondes et publiques. Ces avatars peuvent gérer des utilitaires complexes tels que des avatars 3D, une génération autonome de texte en vidéo et des intégrations de diffusion en direct sur des plateformes sociales. Le MoA basé sur SLM peut améliorer les interactions multimodales de prochaine génération, rendant les avatars publics plus interactifs et efficaces.
Le lancement d'un concept de preuve de concept spécialisé dans les relations avec les développeurs Web3 (DevRel) sur la plateforme AssisterrAI a démontré une forte adéquation avec le marché. Un régime DevRel robuste est essentiel pour impliquer les développeurs et fournir un support complet lors de l'adoption d'une pile technologique. Cependant, cela implique des coûts considérables, les salaires des postes DevRel allant de 90 000 $ à 200 000 $ par an. De nombreuses demandes de support de développeurs sont prévisibles et peuvent être automatisées, augmentant l'efficacité DevRel grâce à l'utilisation ciblée des SLM. Cette approche permet de réduire les coûts tout en maintenant un support de haute qualité pour les développeurs.
1. Visitez le site Web Assisterr: allez sur Le site web d'Assisterret cliquez sur "Ouvrir l'application"
2. Connectez votre portefeuille : Cliquez sur le bouton "Sélectionner un portefeuille" et connectez votre portefeuille Solana basé sur le navigateur. Ce portefeuille sera utilisé pour les transactions et l'accès à diverses fonctionnalités sur la plateforme.
3. Lier les comptes sociaux: Connectez votre profil X et votre compte Discord. Ces connexions aident à vérifier votre identité et à intégrer votre présence sociale à l'écosystème Assisterr.
4. Terminez l'inscription : suivez les instructions à l'écran pour terminer le processus d'inscription. Une fois inscrit, vous pouvez commencer à explorer la plateforme et ses fonctionnalités.
1. Accédez à la boutique SLM : Après vous être connecté, allez dans le Onglet Magasin SLMsur l'interface Assisterr.
2. Parcourir les modèles disponibles : Explorez les différents modèles de petites langues (SLM) disponibles dans le magasin. Chaque modèle est conçu pour des tâches et des industries spécifiques, telles que les écosystèmes Web3, les soins de santé, le développement de logiciels et la finance.
3. Modèles de requête : Vous pouvez interroger n'importe quel modèle grâce à une interface de chatbot. Sélectionnez simplement le modèle qui vous intéresse et commencez à interagir avec lui. Les requêtes peuvent être effectuées depuis l'interface web avec un portefeuille Solana connecté ou via une API pour une intégration avec d'autres applications.
1. Accédez au laboratoire d'IA : Allez sur le onglet Laboratoire d'IAsur l'interface Assisterr.
2. Spécifier les paramètres du modèle: Remplissez le formulaire de configuration pour spécifier les paramètres clés, les modèles de prompt et les métadonnées de votre modèle. Cela inclut la définition du nom du modèle, du handle, de la description de l'objectif, de la catégorie, de l'image de couverture, des déclencheurs de conversation et de l'ensemble de données. Vous pouvez également accélérer ce processus en utilisant l'assistant IA.
3. Télécharger les données : Téléchargez directement les données qui seront intégrées dans le modèle via la génération augmentée par récupération (RAG) et le peaufinage. Ces données aident à entraîner le modèle à exécuter ses tâches prévues.
4. Publiez votre SLM : Une fois que vous avez configuré le modèle, cliquez sur le bouton bouton. Votre modèle sera généré et vous pourrez choisir de le rendre public sur le magasin SLM ou de le conserver privé. Le rendre public permet à d'autres utilisateurs d'accéder et d'interroger votre modèle.
Assisterr, une startup d'infrastructure d'IA basée à Cambridge, a réussi à clôturer une levée de fonds de pré-amorçage de 1,7 million de dollars. Cette levée de fonds a vu la participation de fonds de capital-risque Web3 renommés, notamment Web3.com Ventures, Moonhill Capital, Contango, Outlier Ventures, Decasonic, Zephyrus Capital, Wise3 Ventures, Saxon, GFI Ventures, X Ventures, Koyamaki, Lucid Drakes Ventures, et d'anges notables tels que Michael Heinrich, Mark Rydon, Nader Dabit, Anthony Lesoismier-Geniaux et Ethan Francis. Les fonds ont été déterminants dans la construction de l'infrastructure fondamentale d'Assisterr et le lancement de sa plateforme.
Depuis son lancement, Assisterr a atteint des étapes importantes, notamment en attirant 150 000 utilisateurs enregistrés et en lançant plus de 60 modèles de langues secondaires (SLM) pour les protocoles Web3 leaders tels que Solana, Optimism, 0g.ai et NEAR. De plus, Assisterr a été reconnu en remportant plusieurs hackathons mondiaux et en participant au programme de startups en intelligence artificielle de Google, ce qui lui a permis d'obtenir 350 000 dollars de financement pour soutenir ses besoins en infrastructure GPU, CPU et cloud.
Assisterr a une feuille de route claire pour la croissance et le développement futurs. Les principales étapes comprennent :
AI Lab (Q4 2024)
Croissance du réseau (H1 2025)
Mélange d'agents SLM (H2 2025)
Assisterr est en train de pionnier une nouvelle ère de l'IA décentralisée et communautaire en exploitant les petits modèles de langue (SLM) et des modèles économiques innovants. En abordant les limitations des grands modèles de langue (LLM) et en favorisant une approche collaborative, Assisterr rend la technologie de l'IA plus accessible, efficace et durable. L'écosystème global de la plateforme, comprenant les laboratoires d'IA, le magasin SLM et les éléments collaboratifs, permet aux utilisateurs de créer, de partager et de monétiser des modèles d'IA.
L'industrie de l'IA d'aujourd'hui est confrontée à des défis importants en raison de la centralisation, avec de grandes avancées souvent contrôlées par quelques grandes entreprises. Cela suscite des préoccupations concernant la confidentialité des données, les pratiques monopolistiques et l'accès limité aux technologies de pointe. De plus, la dépendance excessive aux modèles linguistiques volumineux (LLM) tels que GPT-3, malgré leurs capacités, soulève des problèmes tels que les coûts de calcul élevés, l'impact environnemental et les biais potentiels dans les données sur lesquelles ils sont formés. Ces modèles nécessitent de vastes données et ressources, ce qui les rend accessibles uniquement aux organisations bien financées.
Assisterr relève ces défis en introduisant des Small Language Models (SLMs) et en promouvant une approche communautaire du développement de l'IA. Les SLM sont conçus pour être plus efficaces, nécessitant moins de puissance de calcul et de données tout en maintenant des performances élevées, rendant ainsi la technologie de l'IA plus accessible et durable. De plus, les modèles et agents d'IA communautaires d'Assisterr permettent aux utilisateurs de contribuer aux avancées de l'IA et d'en bénéficier, favorisant ainsi l'innovation et l'inclusion, et garantissant que les avantages de l'IA sont partagés plus largement dans la société.
Source: site web Assisterr
Assisterr AI est une plateforme d'IA décentralisée conçue pour démocratiser l'accès à l'intelligence artificielle en exploitant les petits modèles de langage (SLM) et les agents d'IA communautaires. Son objectif principal est de fournir une alternative plus efficace, accessible et durable aux modèles d'IA traditionnels, en abordant les limites des grands modèles de langage (LLM) et en favorisant un écosystème d'IA collaboratif.
Les modèles de langage à grande échelle (LLM) tels que GPT-3 et BERT sont des modèles d'IA entraînés sur de vastes quantités de données textuelles pour comprendre et générer un langage semblable à celui des humains. Ils sont capables d'effectuer une large gamme de tâches, de l'achèvement de texte à la traduction et à la synthèse. Cependant, les LLM présentent plusieurs lacunes notables :
Les petits modèles de langage (SLM), bien que similaires en concept aux LLM, sont conçus pour être plus précis, spécialisés et efficaces. En se concentrant sur des tâches et des ensembles de données spécifiques, les SLM offrent des performances supérieures pour des applications de niche, ce qui les rend plus adaptés à des cas d'utilisation spécialisés. En utilisant des ensembles de données adaptés et en se concentrant sur les besoins spécifiques de l'entreprise, les SLM peuvent offrir des performances supérieures et une adaptabilité situationnelle à une fraction du coût. Cela est également encourageant pour la construction de SLM en open source, où des projets moins chers ont précédemment développé des SLM avec une précision compétitive par rapport aux LLM expérimentés à des coûts bien inférieurs.
Les petits modèles de langage (SLMs) sont au cœur de la technologie d'Assisterr. Contrairement aux grands modèles de langage (LLMs), les SLMs sont conçus pour être plus efficaces et spécialisés. Ils se concentrent sur des tâches et des ensembles de données spécifiques, ce qui leur permet d'offrir des performances supérieures pour des applications de niche. Cette spécialisation rend les SLMs plus accessibles et durables, car ils nécessitent moins de puissance de calcul et de données.
Pour remédier aux limites des agents basés sur LLM, des approches avancées ont émergé impliquant plusieurs petits modèles de langage (SLM) travaillant dans des cadres agentic collaboratifs. Deux approches principales sont utilisées lors du développement d'agents d'IA à partir d'ensembles SLM : les mélanges d'experts (MoE) et les mélanges d'agents (MoA).
Mélanges d'experts (MoE)
Source: Assisterr Litepaper
Lorsqu'ils sont combinés dans des ensembles MoE, le raisonnement moderne SLM peut atteindre une flexibilité d'apprentissage améliorée sans perdre sa capacité de résolution de problèmes fonctionnels. L'apprentissage en ensemble peut combiner les compétences de raisonnement de plusieurs petits modèles, chacun spécialisé dans différents contextes associés, pour résoudre des problèmes complexes. Cela génère une compréhension hybride qui permet à l'IA de plonger en profondeur. Les couches d'experts peuvent elles-mêmes être composées de MoEs, créant des structures hiérarchiques pour tamponner davantage la complexité contextuelle et la compétence en résolution de problèmes. Un MoE utilise généralement une couche de filtrage clairsemée qui sélectionne dynamiquement parmi plusieurs réseaux parallèles pour fournir la réponse la plus appropriée à la demande. Pour obtenir des réponses plus flexibles, les experts individuels pourraient être affinés pour la génération de code, la traduction ou l'analyse des sentiments. Des architectures MoE plus sophistiquées peuvent contenir plusieurs de ces couches MoE en combinaison avec d'autres composants. Comme toute architecture de modèle de langage typique, la couche de filtrage MoE fonctionne sur des jetons sémantiques et nécessite une formation.
Mélanges d'Agents (MoA)
Lorsqu’ils sont assemblés dans des architectures MoA, les SLM améliorent la sélectivité d’ensembles de raisonnement diversifiés, permettant à l’IA d’exécuter avec précision une tâche avec la méthodologie requise. Les modèles agentiques sont assemblés au sein d’un consortium qui superpose des protocoles d’exécution pour améliorer l’efficacité et la résolution de problèmes de tâches complexes. L’IA fonctionne donc dans des scénarios multi-domaines. Les équipes d’agents peuvent travailler en séquence, en améliorant de manière itérative les résultats précédents. MoA a déjà largement surpassé les modèles plus grands, y compris le score de précision de 57,5 % de GPT-4 Omni sur AlpacaEval 2.0, même dans les modèles open source. Un mélange d’agents (MoA) opère au niveau des sorties du modèle, et non des jetons sémantiques. Il ne comporte pas de couche de contrôle, mais transfère l’invite textuelle à tous les agents de manière parallélisée. Les résultats du protocole d’accord ne sont pas non plus agrégés par addition et normalisation. Au lieu de cela, ils sont concaténés et combinés avec une invite de synthèse et d’agrégation avant d’être transmis à un modèle distinct pour produire le résultat final. Les modèles sont ainsi divisés en « proposants » qui calculent des résultats divers et en « agrégateurs » qui intègrent les résultats. Tout comme pour le MoE, plusieurs de ces couches peuvent être combinées. L’absence de couches de contrôle rend cette approche plus flexible et adaptable à des tâches complexes.
L'économie DeAI (IA décentralisée) est un aspect fondamental de la plateforme d'Assisterr. Elle exploite la technologie de blockchain pour créer un marché décentralisé pour les modèles d'IA et les données. Cette économie encourage le partage des données et la collaboration, en veillant à ce que les contributeurs soient justement récompensés pour leurs efforts. Les principaux composants de l'économie DeAI comprennent:
AssisterrAI fournit un pipeline d'infrastructure unifié pour créer, tokeniser et distribuer des modèles de langage simple (SLM) de manière à inciter toutes les contributions de la communauté. Le laboratoire d'IA permet aux utilisateurs de contribuer aux modèles dans leur domaine de connaissance, devenant ainsi à la fois co-créateurs et co-propriétaires de l'IA. Cette approche garantit que les travailleurs indépendants de l'IA ne gagnent pas seulement sur une base ponctuelle et transactionnelle, mais capturent également une valeur de marché plus large, assurant ainsi un avenir meilleur et faisant des gens des bénéficiaires de l'IA plutôt que des victimes du progrès et de l'automatisation.
Pour accéder à la plateforme, les utilisateurs se connectent à un portefeuille Solana basé sur un navigateur, ainsi qu'à leur profil X et à leur compte Discord. Ils peuvent ensuite créer des modèles via l'onglet AI Lab de l'interface utilisateur Assisterr, qui propose un formulaire simple pour spécifier les paramètres clés, les modèles de prompt et les métadonnées du modèle. Les utilisateurs peuvent télécharger directement des données qui seront intégrées dans le modèle via la génération augmentée par récupération (RAG) et ultérieurement par ajustement fin. Une fois créé, le modèle peut être rendu public via le SLM Store. À l'avenir, l'AI Lab adoptera un paradigme modulaire et multi-modèle avec une architecture de Mixture of Agents et des stratégies de récupération augmentée.
Les contributeurs d'Assisterr sont récompensés pour toutes les étapes de la genèse d'un modèle d'IA, de la contribution de données et de la création de modèles à la validation et à l'examen. Ce mécanisme de partage des revenus est mis en œuvre grâce à un module de tokenisation SLM. Le laboratoire d'IA connecte efficacement les cas d'utilisation commerciale aux données et à l'expertise requises. Une fois qu'un modèle apparaît dans l'onglet SLM Store de l'interface Assisterr, n'importe quel utilisateur peut le consulter via une interface de chatbot. Actuellement, les bots aident dans divers domaines de niche dans les écosystèmes Web3, les soins de santé, le développement de logiciels et la finance.
Chaque modèle dans le magasin SLM est livré avec une trésorerie libellée en jeton natif d'Assisterr, qui est rechargé à partir du solde de l'utilisateur respectif à chaque requête. Les requêtes peuvent être effectuées depuis l'interface WebUI avec un portefeuille Solana connecté ou via une API, rendant les modèles du magasin SLM accessibles via d'autres applications. Les contributeurs peuvent créer des SLM, les assembler en agents et les déployer via une interface sans code, offrant une période de mise sur le marché rapide et un cycle d'innovation rapide. Cela résout les défis de distribution et de monétisation auxquels sont confrontés les créateurs et développeurs de modèles indépendants.
Grâce à l'onglet Contribuer et Gagner, les utilisateurs peuvent participer à des améliorations itératives des modèles existants de la boutique SLM en répondant aux demandes de données et en validant les métriques de performance en échange de jetons de gestion (MTs) ou du jeton natif Assisterr. Ce processus d'examen par les pairs assure une évolution constante et une augmentation du débit dans la création de modèles au fil du temps. Associé à des fonctionnalités telles que le Mélange d'Agents (MoA), cela permet une progression cumulative et une expérimentation continue ascendante. La nature modulaire et spécialisée des SLM permet une intégration rapide dans les pipelines de travail existants. À l'avenir, les entreprises ou les particuliers pourront décrire leurs problèmes et les services d'Assisterr impliqueront un ensemble pertinent de SLM/Agents pour trouver une solution.
Le jeton natif Assisterr est le véhicule sur lequel les opérations de l'écosystème AssisterrAI sont exécutées. Il est utilisé en réponse à la validation des actions entreprises dans le cadre des protocoles de contrats intelligents à chaque étape du processus de développement de SLM. En utilisant le jeton, les participants peuvent interagir avec les fonctionnalités de l'écosystème Assisterr, telles que l'accès aux produits, le paiement des frais et la contribution à la création, à la gestion et à la monétisation des SLM.
Les agents d'IA de la finance décentralisée (DeFi) sont une innovation significative dans l'espace Web3. Allant au-delà des systèmes de recommandation à usage général, des agents d'IA spécialisés opérant dans des contraintes sûres et autorisées peuvent mieux optimiser et automatiser les portefeuilles financiers. Les SLM agentic, créés pour les médias à transactions rapides comme les protocoles Solana DeFi, peuvent améliorer le prêt/emprunt, le trading perpétuel et le staking. Ces agents offrent une meilleure curation des données, un raisonnement multimodal et une analyse fonctionnelle approfondie grâce aux ensembles de SLM et à un ensemble moderne d'agents (MoA) consortium.
Les agents de trading, adaptés aux scénarios de trading complexes, peuvent analyser les clusters de portefeuilles et les tendances des prix, ce qui s'avère très utile à la fois sur le marché volatile de la finance décentralisée (DeFi) et dans la finance traditionnelle (TradFi). La MoA basée sur SLM peut être particulièrement efficace dans les stratégies de trading référencées sur les données, où le support d'exécution et la méthode sont cruciaux. Ces agents améliorent l'efficacité et la rentabilité du trading en exploitant des algorithmes avancés et des données en temps réel.
Les agents de chat autonomes dotés de capacités d'apprentissage et d'analyse avancées sont précieux dans les domaines académiques, sociaux et professionnels. Ils peuvent servir de mandataires de soutien pour divers services, se connecter aux réseaux sociaux et aux applications informatiques. En incorporant une fonctionnalité agente, ces modèles de support conversationnel peuvent agir en tant que liaisons, implémentant des fonctions basées sur les commentaires des utilisateurs et fournissant un support opérationnel.
SLMs peuvent créer des procurations basées sur du texte, de l'audio ou de la vidéo, produisant des avatars pour des tâches profondes et publiques. Ces avatars peuvent gérer des utilitaires complexes tels que des avatars 3D, une génération autonome de texte en vidéo et des intégrations de diffusion en direct sur des plateformes sociales. Le MoA basé sur SLM peut améliorer les interactions multimodales de prochaine génération, rendant les avatars publics plus interactifs et efficaces.
Le lancement d'un concept de preuve de concept spécialisé dans les relations avec les développeurs Web3 (DevRel) sur la plateforme AssisterrAI a démontré une forte adéquation avec le marché. Un régime DevRel robuste est essentiel pour impliquer les développeurs et fournir un support complet lors de l'adoption d'une pile technologique. Cependant, cela implique des coûts considérables, les salaires des postes DevRel allant de 90 000 $ à 200 000 $ par an. De nombreuses demandes de support de développeurs sont prévisibles et peuvent être automatisées, augmentant l'efficacité DevRel grâce à l'utilisation ciblée des SLM. Cette approche permet de réduire les coûts tout en maintenant un support de haute qualité pour les développeurs.
1. Visitez le site Web Assisterr: allez sur Le site web d'Assisterret cliquez sur "Ouvrir l'application"
2. Connectez votre portefeuille : Cliquez sur le bouton "Sélectionner un portefeuille" et connectez votre portefeuille Solana basé sur le navigateur. Ce portefeuille sera utilisé pour les transactions et l'accès à diverses fonctionnalités sur la plateforme.
3. Lier les comptes sociaux: Connectez votre profil X et votre compte Discord. Ces connexions aident à vérifier votre identité et à intégrer votre présence sociale à l'écosystème Assisterr.
4. Terminez l'inscription : suivez les instructions à l'écran pour terminer le processus d'inscription. Une fois inscrit, vous pouvez commencer à explorer la plateforme et ses fonctionnalités.
1. Accédez à la boutique SLM : Après vous être connecté, allez dans le Onglet Magasin SLMsur l'interface Assisterr.
2. Parcourir les modèles disponibles : Explorez les différents modèles de petites langues (SLM) disponibles dans le magasin. Chaque modèle est conçu pour des tâches et des industries spécifiques, telles que les écosystèmes Web3, les soins de santé, le développement de logiciels et la finance.
3. Modèles de requête : Vous pouvez interroger n'importe quel modèle grâce à une interface de chatbot. Sélectionnez simplement le modèle qui vous intéresse et commencez à interagir avec lui. Les requêtes peuvent être effectuées depuis l'interface web avec un portefeuille Solana connecté ou via une API pour une intégration avec d'autres applications.
1. Accédez au laboratoire d'IA : Allez sur le onglet Laboratoire d'IAsur l'interface Assisterr.
2. Spécifier les paramètres du modèle: Remplissez le formulaire de configuration pour spécifier les paramètres clés, les modèles de prompt et les métadonnées de votre modèle. Cela inclut la définition du nom du modèle, du handle, de la description de l'objectif, de la catégorie, de l'image de couverture, des déclencheurs de conversation et de l'ensemble de données. Vous pouvez également accélérer ce processus en utilisant l'assistant IA.
3. Télécharger les données : Téléchargez directement les données qui seront intégrées dans le modèle via la génération augmentée par récupération (RAG) et le peaufinage. Ces données aident à entraîner le modèle à exécuter ses tâches prévues.
4. Publiez votre SLM : Une fois que vous avez configuré le modèle, cliquez sur le bouton bouton. Votre modèle sera généré et vous pourrez choisir de le rendre public sur le magasin SLM ou de le conserver privé. Le rendre public permet à d'autres utilisateurs d'accéder et d'interroger votre modèle.
Assisterr, une startup d'infrastructure d'IA basée à Cambridge, a réussi à clôturer une levée de fonds de pré-amorçage de 1,7 million de dollars. Cette levée de fonds a vu la participation de fonds de capital-risque Web3 renommés, notamment Web3.com Ventures, Moonhill Capital, Contango, Outlier Ventures, Decasonic, Zephyrus Capital, Wise3 Ventures, Saxon, GFI Ventures, X Ventures, Koyamaki, Lucid Drakes Ventures, et d'anges notables tels que Michael Heinrich, Mark Rydon, Nader Dabit, Anthony Lesoismier-Geniaux et Ethan Francis. Les fonds ont été déterminants dans la construction de l'infrastructure fondamentale d'Assisterr et le lancement de sa plateforme.
Depuis son lancement, Assisterr a atteint des étapes importantes, notamment en attirant 150 000 utilisateurs enregistrés et en lançant plus de 60 modèles de langues secondaires (SLM) pour les protocoles Web3 leaders tels que Solana, Optimism, 0g.ai et NEAR. De plus, Assisterr a été reconnu en remportant plusieurs hackathons mondiaux et en participant au programme de startups en intelligence artificielle de Google, ce qui lui a permis d'obtenir 350 000 dollars de financement pour soutenir ses besoins en infrastructure GPU, CPU et cloud.
Assisterr a une feuille de route claire pour la croissance et le développement futurs. Les principales étapes comprennent :
AI Lab (Q4 2024)
Croissance du réseau (H1 2025)
Mélange d'agents SLM (H2 2025)
Assisterr est en train de pionnier une nouvelle ère de l'IA décentralisée et communautaire en exploitant les petits modèles de langue (SLM) et des modèles économiques innovants. En abordant les limitations des grands modèles de langue (LLM) et en favorisant une approche collaborative, Assisterr rend la technologie de l'IA plus accessible, efficace et durable. L'écosystème global de la plateforme, comprenant les laboratoires d'IA, le magasin SLM et les éléments collaboratifs, permet aux utilisateurs de créer, de partager et de monétiser des modèles d'IA.