¿Qué es Assisterr: El Futuro de la AI propiedad de la comunidad?

Intermedio1/13/2025, 3:27:02 AM
Assisterr es una plataforma AI descentralizada que aprovecha los modelos de lenguaje pequeños (SLMs) y un modelo económico innovador para hacer que la tecnología AI sea más accesible, eficiente y sostenible. La plataforma aborda las limitaciones de los modelos de lenguaje grandes (LLMs) y promueve la colaboración comunitaria, permitiendo a los usuarios crear, compartir y monetizar modelos de AI. Su sistema económico descentralizado único recompensa a los colaboradores, asegurando una distribución justa del valor, fomentando la adopción de AI, la innovación tecnológica y fomentando avances en el campo.

La industria de la IA de hoy enfrenta desafíos significativos debido a la centralización, con importantes avances a menudo controlados por unas pocas grandes corporaciones. Esto genera preocupaciones sobre la privacidad de los datos, prácticas monopolísticas y acceso limitado a la tecnología de vanguardia. Además, la excesiva dependencia de Modelos de Lenguaje Grandes (LLMs) como GPT-3, a pesar de sus capacidades, conlleva problemas como altos costos computacionales, impacto ambiental y posibles sesgos en los datos en los que están entrenados. Estos modelos requieren una gran cantidad de datos y recursos, lo que los hace accesibles solo para organizaciones bien financiadas.

Assisterr aborda estos desafíos mediante la introducción de Modelos de Lenguaje Pequeño (SLMs) y promoviendo un enfoque de desarrollo de IA propiedad de la comunidad. Los SLM están diseñados para ser más eficientes, requiriendo menos potencia computacional y datos, manteniendo un alto rendimiento, lo que hace que la tecnología de IA sea más accesible y sostenible. Además, los modelos y agentes de IA propiedad de la comunidad de Assisterr empoderan a los usuarios para contribuir y beneficiarse de los avances en IA, fomentando la innovación y la inclusión, y asegurando que los beneficios de la IA se compartan de manera más amplia en la sociedad.

¿Qué es Assisterr AI?


Fuente: Sitio web de Assisterr

Assisterr AI es una plataforma de IA descentralizada diseñada para democratizar el acceso a la inteligencia artificial mediante el aprovechamiento de Modelos de Lenguaje Pequeños (SLMs) y agentes de IA de propiedad comunitaria. Su propósito principal es proporcionar una alternativa más eficiente, accesible y sostenible a los modelos de IA tradicionales, abordando las limitaciones de los Modelos de Lenguaje Grandes (LLMs) y promoviendo un ecosistema de IA colaborativo.

Características clave y beneficios de Assisterr AI

  • Modelos de Lenguaje Pequeños (SLMs): A diferencia de los LLMs, los SLMs requieren menos potencia computacional y datos, lo que los hace más accesibles y respetuosos con el medio ambiente. Están diseñados para realizar tareas específicas de manera eficiente, reduciendo la sobrecarga asociada con modelos más grandes.
  • Modelos de propiedad comunitaria: Assisterr promueve un enfoque descentralizado donde los usuarios pueden contribuir y beneficiarse de los avances de la IA. Este modelo fomenta la innovación y la inclusión, asegurando que unas pocas entidades grandes no monopolizan la tecnología de IA.
  • Herramientas sin código: Assisterr proporciona herramientas intuitivas y sin código que permiten a individuos y empresas crear y desplegar modelos de IA sin conocimientos técnicos extensos. Esto reduce la barrera de entrada y fomenta una mayor participación en el desarrollo de la IA.
  • Mercado de datos: La plataforma incluye un mercado para datos y modelos de inteligencia artificial, lo que permite a los usuarios comprar, vender y compartir recursos. Esto incentiva el intercambio de datos y la colaboración, mejorando aún más el ecosistema de IA.
  • Seguridad y Transparencia: Assisterr emplea sólidas medidas de seguridad y procesos transparentes para garantizar la integridad y confiabilidad de sus modelos de IA y transacciones de datos.

Los Modelos de Lenguaje (LLM & SLM)

Grandes Modelos de Lenguaje (GML)

Los modelos de lenguaje grandes (LLMs) como GPT-3 y BERT son modelos de IA entrenados en grandes cantidades de datos de texto para entender y generar lenguaje similar al humano. Son capaces de realizar una amplia gama de tareas, desde la finalización de texto hasta la traducción y resumen. Sin embargo, los LLM tienen varias deficiencias notables:

  • Altos Costos Computacionales: Entrenar y ejecutar LLMs requiere recursos computacionales significativos, lo que los hace costosos y ambientalmente agotadores.
  • Sesgo de datos: LLMs pueden heredar sesgos presentes en sus datos de entrenamiento, lo que lleva a salidas sesgadas o inapropiadas.
  • Accesibilidad limitada: Debido a su naturaleza intensiva en recursos, los LLM a menudo solo son accesibles para organizaciones grandes con financiamiento sustancial.
  • Problemas de escalabilidad: La estructura monolítica de LLMs puede hacerlos menos flexibles y más difíciles de adaptar a tareas o dominios específicos.

Modelos de Lenguaje Pequeños (SLMs)

Los modelos de lenguaje pequeños (SLMs), aunque similares en concepto a los LLMs, están diseñados para ser más precisos, especializados y eficientes. Al centrarse en tareas y conjuntos de datos específicos, los SLMs proporcionan un rendimiento superior para aplicaciones de nicho, lo que los hace más adecuados para casos de uso especializados. Al utilizar conjuntos de datos adaptados y centrarse en necesidades comerciales específicas, los SLMs pueden ofrecer un rendimiento superior y una adaptabilidad situacional a una fracción del costo. Esto también es alentador para la construcción de SLM de código abierto, donde proyectos más baratos han desarrollado previamente SLMs con precisión competitiva con respecto a los veteranos LLMs a costos mucho más bajos.

Técnica detrás de Assisterr AI

Modelos de lenguaje pequeños (SLM)

Los modelos de lenguaje pequeños (SLMs) son el núcleo de la tecnología de Assisterr. A diferencia de los modelos de lenguaje grandes (LLMs), los SLMs están diseñados para ser más eficientes y especializados. Se centran en tareas específicas y conjuntos de datos, lo que les permite ofrecer un rendimiento superior para aplicaciones de nicho. Esta especialización hace que los SLMs sean más accesibles y sostenibles, ya que requieren menos potencia informática y datos.

Arquitectura SLM modular

Para abordar las limitaciones de los agentes basados en LLM, han surgido enfoques avanzados que involucran múltiples modelos de lenguaje pequeños (SLM) que trabajan en marcos agentes colaborativos. Se utilizan dos enfoques principales al desarrollar agentes de IA a partir de ensambles de SLM: Mezclas de Expertos (MoE) y Mezclas de Agentes (MoA).

Mezclas de Expertos (MoE)


Fuente: Assisterr Litepaper

Cuando se combinan en conjuntos de MoE, el razonamiento moderno de SLM puede lograr una flexibilidad de aprendizaje mejorada sin perder su capacidad para la resolución de problemas funcionales. El aprendizaje de conjuntos puede combinar las habilidades de razonamiento de varios modelos más pequeños, cada uno especializado en diferentes contextos asociados, para resolver problemas complejos. Esto genera una comprensión híbrida que continúa permitiendo que la IA se sumerja profundamente. Las capas de expertos pueden estar compuestas por MoEs, creando estructuras jerárquicas para amortiguar aún más la complejidad contextual y la capacidad de resolución de problemas. Un MoE suele utilizar una capa de selección escasa que selecciona dinámicamente entre varias redes paralelas para dar la respuesta más apropiada a la solicitud. Para lograr respuestas más flexibles, los expertos individuales podrían ajustarse para la generación de código, traducción o análisis de sentimientos. Arquitecturas de MoE más sofisticadas pueden contener varias capas de MoE en combinación con otros componentes. Al igual que cualquier arquitectura de modelo de lenguaje típica, la capa de selección de MoE opera en tokens semánticos y requiere entrenamiento.

Mezclas de Agentes (MoA)

Cuando se ensamblan en arquitecturas MoA, los SLM mejoran la selectividad de los conjuntos de razonamiento diversificados, lo que permite a la IA promulgar la ejecución precisa de una tarea con la metodología requerida. Los modelos agenticos se ensamblan en un consorcio que superpone protocolos de ejecución para mejorar la eficiencia y la resolución de problemas de tareas complejas. Por lo tanto, la IA funciona en escenarios multidominio. Los equipos de agentes pueden trabajar en secuencia, mejorando iterativamente los resultados anteriores. Anteriormente, MoA ha superado significativamente a los modelos más grandes, incluida la puntuación de precisión del 57,5% de GPT-4 Omni en AlpacaEval 2.0, incluso en modelos de código abierto. Una mezcla de agentes (MoA) opera en el nivel de las salidas del modelo, no de los tokens semánticos. No cuenta con una capa de compuertas, sino que reenvía el mensaje de texto a todos los agentes de forma paralelizada. Los resultados del MoA tampoco se agregan por adición y normalización. En su lugar, se concatenan y se combinan con un mensaje de síntesis y agregación antes de pasar a un modelo separado para producir el resultado final. Por lo tanto, los modelos se dividen en "proponentes" que calculan diversos resultados y "agregadores" que integran los resultados. Al igual que en el caso de MoE, se pueden combinar varias de estas capas. La falta de capas de compuerta hace que este enfoque sea más flexible y adaptable a tareas complejas.

DeAI Economy

La economía DeAI (Inteligencia Artificial Descentralizada) es un aspecto fundamental de la plataforma de Assisterr. Utiliza la tecnología blockchain para crear un mercado descentralizado para modelos de IA y datos. Esta economía incentiva el intercambio de datos y la colaboración, asegurando que los colaboradores sean recompensados de manera justa por sus esfuerzos. Los componentes clave de la economía DeAI incluyen:

  • Data Marketplace: Una plataforma donde los usuarios pueden comprar, vender y compartir datos y modelos de IA. Este mercado fomenta el intercambio de recursos valiosos, fomentando la innovación y la colaboración dentro de la comunidad.
  • Mecanismos de incentivos: Assisterr utiliza varios mecanismos de incentivos para recompensar a los usuarios por contribuir con datos, desarrollar modelos y participar en el ecosistema. Estos incentivos garantizan que la comunidad siga activa y comprometida.
  • Transparencia y Seguridad: La tecnología blockchain proporciona un entorno transparente y seguro para las transacciones dentro de la economía de DeAI. Esto garantiza la integridad y confiabilidad de los datos y los modelos de AI, protegiendo a los usuarios de fraudes y mal uso.

Ecosistema de Assisterr

AI Labs

AssisterrAI proporciona un canal de infraestructura unificado para crear, tokenizar y distribuir Modelos de Lenguaje Pequeños (SLMs) de manera que incentive todas las contribuciones de la comunidad. El Laboratorio de IA permite a los usuarios contribuir a modelos en su área de conocimiento, convirtiéndose así en co-creadores y co-propietarios de la IA. Este enfoque asegura que los trabajadores gigantes de la IA no solo ganen en base a una transacción única, sino que también capturen un valor de mercado más amplio, asegurando un futuro mejor y haciendo que las personas se beneficien de la IA en lugar de ser víctimas del progreso y la automatización.

Para acceder a la plataforma, los usuarios conectan una billetera de Solana basada en el navegador, así como su perfil de X y cuenta de Discord. Luego pueden crear modelos a través de la pestaña AI Lab de la interfaz de usuario de Assisterr, que ofrece un formulario sencillo para especificar parámetros clave, plantillas de sugerencias y metadatos del modelo. Los usuarios pueden cargar directamente datos que se incorporarán al modelo a través de la generación aumentada de recuperación (RAG) y más tarde a través del ajuste fino. Una vez creado, el modelo puede hacerse público a través de la tienda SLM. En el futuro, el AI Lab adoptará un paradigma modular y multi-modelo con una arquitectura de Mezcla de Agentes y estrategias de recuperación aumentadas.

Tienda SLM

Los contribuyentes de Assisterr son recompensados por todos los pasos en la génesis de un modelo de IA, desde la contribución de datos y la creación del modelo hasta la validación y revisión. Este mecanismo de reparto de ingresos se implementa a través de un módulo de tokenización SLM. El Laboratorio de IA conecta eficazmente casos de uso empresarial con los datos y la experiencia requeridos. Una vez que un modelo aparece en la pestaña de la tienda SLM de la interfaz de Assisterr, cualquier usuario puede consultarlo a través de una interfaz de chatbot. Actualmente, los bots ayudan con varios nichos en los ecosistemas Web3, atención médica, desarrollo de software y finanzas.

Cada modelo en la tienda SLM viene con un tesoro denominado en el token nativo de Assisterr, que se recarga desde el saldo del usuario respectivo en cada consulta. Las consultas se pueden realizar desde la WebUI con una billetera Solana conectada o a través de una API, lo que permite acceder a modelos de la tienda SLM a través de otras aplicaciones. Los contribuyentes pueden crear SLM, ensamblarlos en agentes y desplegarlos a través de una interfaz sin código, lo que proporciona un período rápido de llegada al mercado y un ciclo de innovación rápido. Esto resuelve los desafíos de distribución y monetización a los que se enfrentan los creadores de modelos y desarrolladores independientes.

Elementos Colaborativos

A través de la pestaña Contribuir y Ganar, los usuarios pueden participar en mejoras iterativas a los modelos existentes de la tienda SLM, cumpliendo con las solicitudes de datos y validando métricas de rendimiento a cambio de tokens de gestión (MTs) o el token nativo de Assisterr. Este proceso de revisión entre pares garantiza una evolución constante y un aumento de la capacidad en la creación de modelos con el tiempo. Combinado con características como la Mezcla de Agentes (MoA), esto permite un progreso acumulativo y un ajuste continuo desde la base. La naturaleza modular y especializada de SLMs permite una integración rápida en los flujos de trabajo existentes. En el futuro, las empresas o individuos podrán describir sus problemas, y los servicios de Assisterr involucrarán un conjunto relevante de SLMs/Agentes para encontrar una solución.

Modelo de Tesorería de Assisterr

El token nativo de Assisterr es el vehículo a través del cual se ejecutan las operaciones del ecosistema AssisterrAI. Se transacciona en respuesta a la validación de acciones tomadas en el cumplimiento de protocolos de contratos inteligentes en cada etapa del proceso de desarrollo de SLM. Al aprovechar el token, los participantes pueden interactuar con las instalaciones del ecosistema Assisterr, como acceder a productos, pagar comisiones y contribuir a la creación, gestión y monetización de SLMs.

Casos de uso de Assisterr

Agentes de Gestión de Finanzas Descentralizadas (DeFi)

Los agentes de inteligencia artificial (IA) de finanzas descentralizadas (DeFi) son una innovación significativa en el espacio Web3. Yendo más allá de los sistemas recomendadores de propósito general, la IA especializada que opera dentro de límites seguros y con permisos puede optimizar y automatizar mejor las carteras financieras. Los SLMs agentes, creados para medios de transacción rápida como los protocolos DeFi de Solana, pueden mejorar el préstamo/pedido prestado, el trading perpetuo y el staking. Estos agentes proporcionan una mejor curación de datos, razonamiento multimodal y análisis funcional profundo a través de ensambles de SLM y un consorcio moderno de Mezcla de Agentes (MoA).

Agentes de negociación

Los agentes de negociación, adaptados a escenarios de negociación complejos, pueden analizar grupos de billeteras y tendencias de acción de precios, lo que resulta muy útil tanto en el volátil mercado DeFi como en las finanzas tradicionales (TradFi). La MoA basada en SLM puede ser particularmente efectiva en estrategias de negociación referenciadas por datos, donde el medio y el método de ejecución son cruciales. Estos agentes mejoran la eficiencia y rentabilidad de la negociación aprovechando algoritmos avanzados y datos en tiempo real.

Agentes de chat autónomos

Los agentes de chat autónomos con capacidades avanzadas de aprendizaje y análisis son valiosos en ámbitos académicos, sociales y profesionales. Pueden servir como intermediarios de apoyo para diversos servicios, conectando con redes sociales y aplicaciones de TI. Al incorporar funcionalidad agente, estos modelos de apoyo conversacional pueden actuar como enlaces, implementando funciones basadas en los comentarios del usuario y brindando apoyo concreto.

Avatares Públicos

Los SLM pueden crear proxies basados ​​en texto, audio o video, produciendo avatares para tareas de inmersión profunda y de cara al público. Estos avatares pueden manejar utilidades complejas como avatares en 3D, generación autónoma de texto a video e integraciones de transmisión en vivo en plataformas sociales. La MoA basada en SLM puede mejorar las interacciones multimodales de próxima generación, haciendo que los avatares de cara al público sean más interactivos y efectivos.

Relaciones con desarrolladores

El lanzamiento de una prueba de concepto especializada de Relaciones con desarrolladores Web3 (DevRel) en la plataforma AssisterrAI demostró una gran adaptación al mercado. Un régimen de DevRel sólido es esencial para involucrar a los desarrolladores y proporcionar un apoyo integral al adoptar una pila tecnológica. Sin embargo, esto conlleva costos sustanciales, con salarios para roles de DevRel que oscilan entre $90,000 y $200,000 al año. Muchas solicitudes de soporte de los desarrolladores son predecibles y se pueden automatizar, aumentando la eficiencia de DevRel mediante el uso dirigido de SLMs. Este enfoque reduce costos mientras se mantiene un soporte de alta calidad para los desarrolladores.

Empezando con Assisterr AI

Cómo registrarse en Assisterr

1. Visita el sitio web de Assisterr: Ve a Sitio web de Assisterr y haz clic en "Abrir App"

2. Conecta tu billetera: Haz clic en el botón “Seleccionar Billetera” y conecta tu billetera de Solana basada en el navegador. Esta billetera se utilizará para realizar transacciones y acceder a varias funciones en la plataforma.

3. Vincular cuentas sociales: conecte su perfil X y su cuenta de Discord. Estas conexiones ayudan a verificar su identidad e integrar su presencia social con el ecosistema de Assisterr.

4. Completa el registro: Sigue las instrucciones en pantalla para completar el proceso de registro. Una vez registrado, puedes comenzar a explorar la plataforma y sus funciones.

Accediendo a SLMs

1. Navegue a la tienda SLM: Después de iniciar sesión, vaya a la pestaña de la tienda SLMen la interfaz de Assisterr.

2. Explora los diferentes Modelos de Lenguaje Pequeños (SLMs) disponibles en la tienda. Cada modelo está diseñado para tareas e industrias específicas, como ecosistemas Web3, atención médica, desarrollo de software y finanzas.

3. Modelos de consulta: puedes consultar cualquier modelo a través de una interfaz de chatbot. Simplemente selecciona el modelo que te interese y comienza a interactuar con él. Las consultas se pueden realizar desde la interfaz web con una billetera Solana conectada o a través de una API para integración con otras aplicaciones.

Cómo crear tu primer SLM

1. Accede al Laboratorio de IA: Ve a la pestaña del Laboratorio de IAen la interfaz de Assisterr.

2. Especifique los parámetros del modelo: complete el formulario de configuración para especificar los parámetros clave, las plantillas de instrucciones y los metadatos de su modelo. Esto incluye definir el nombre del modelo, el identificador, la descripción del propósito, la categoría, la imagen de portada, los iniciadores de conversación y el conjunto de datos. También puede acelerar este proceso utilizando el asistente de IA.

3. Cargar datos: Cargue directamente los datos que se incrustarán en el modelo a través de la generación mejorada por recuperación (RAG) y el ajuste fino. Estos datos ayudan a entrenar al modelo para realizar sus tareas previstas.

4.Publique su SLM: Una vez que haya configurado el modelo, haga clic en el botón botón. Su modelo se generará y puede desear hacerlo público en la tienda SLM o mantenerlo privado. Hacerlo público permite que otros usuarios accedan a su modelo y lo consulten.

Ayudar en los esfuerzos de recaudación de fondos

Assisterr, una startup de infraestructura de IA con sede en Cambridge, cerró con éxito una ronda de financiación previa a la semilla de $1.7 millones. Esta ronda de inversión contó con la participación de destacados fondos de capital de riesgo Web3, incluidos Web3.com Ventures, Moonhill Capital, Contango, Outlier Ventures, Decasonic, Zephyrus Capital, Wise3 Ventures, Saxon, GFI Ventures, X Ventures, Koyamaki, Lucid Drakes Ventures, y ángeles notables como Michael Heinrich, Mark Rydon, Nader Dabit, Anthony Lesoismier-Geniaux y Ethan Francis. Los fondos han sido fundamentales para construir la infraestructura básica de Assisterr y lanzar su plataforma.

Desde su lanzamiento, Assisterr ha logrado hitos significativos, incluida la atracción de 150,000 usuarios registrados y el lanzamiento de más de 60 Modelos de Lenguaje Pequeños (SLMs) para los principales protocolos Web3 como Solana, Optimism, 0g.ai y NEAR. Además, Assisterr ha obtenido reconocimiento al ganar múltiples hackathons globales y participar en el programa de Startups de IA de Google, asegurando $350,000 en financiamiento para apoyar sus necesidades de infraestructura de GPU, CPU y nube.

Futuro plan de desarrollo y hitos

Assisterr tiene una hoja de ruta clara para el crecimiento y desarrollo futuro. Los hitos clave incluyen:

  1. AI Lab (Q4 2024)

    • Lanzar el AI Lab para permitir a los usuarios crear y poseer SLMs.
    • Alcanzar 500,000 usuarios.
    • Implementar el Programa de Incentivos para Creadores de SLM.
    • Desarrollar 5,000 SLMs.
    • Completa la ronda de financiación inicial.
  2. Crecimiento de la red (H1 2025)

    • Desarrollar SLM para tareas específicas del dominio.
    • Realizar el Evento de Generación de Tokens (TGE) y las listas.
    • Alcanzar 3 millones de usuarios.
    • Desarrollar 30,000 SLMs.
  3. Mezcla de agentes SLM (H2 2025)

    • Implementar la orquestación de SLM para tareas agnósticas de dominio.
    • Expandir en Web2.
    • Alcanza 10 millones de usuarios.
    • Desarrollar 100.000 SLMs.

Conclusión

Assisterr está liderando una nueva era descentralizada y propiedad de la comunidad de IA al aprovechar los Modelos de Lenguaje Pequeños (SLMs) y modelos económicos innovadores. Al abordar las limitaciones de los Modelos de Lenguaje Grandes (LLMs) y promover un enfoque colaborativo, Assisterr está haciendo que la tecnología de IA sea más accesible, eficiente y sostenible. El ecosistema integral de la plataforma, que incluye Laboratorios de IA, la Tienda SLM y elementos colaborativos, capacita a los usuarios para crear, compartir y monetizar modelos de IA.

Autor: Angelnath
Traductor: Viper
Revisor(es): Matheus、Edward
Revisor(es) de traducciones: Ashely
* La información no pretende ser ni constituye un consejo financiero ni ninguna otra recomendación de ningún tipo ofrecida o respaldada por Gate.io.
* Este artículo no se puede reproducir, transmitir ni copiar sin hacer referencia a Gate.io. La contravención es una infracción de la Ley de derechos de autor y puede estar sujeta a acciones legales.

¿Qué es Assisterr: El Futuro de la AI propiedad de la comunidad?

Intermedio1/13/2025, 3:27:02 AM
Assisterr es una plataforma AI descentralizada que aprovecha los modelos de lenguaje pequeños (SLMs) y un modelo económico innovador para hacer que la tecnología AI sea más accesible, eficiente y sostenible. La plataforma aborda las limitaciones de los modelos de lenguaje grandes (LLMs) y promueve la colaboración comunitaria, permitiendo a los usuarios crear, compartir y monetizar modelos de AI. Su sistema económico descentralizado único recompensa a los colaboradores, asegurando una distribución justa del valor, fomentando la adopción de AI, la innovación tecnológica y fomentando avances en el campo.

La industria de la IA de hoy enfrenta desafíos significativos debido a la centralización, con importantes avances a menudo controlados por unas pocas grandes corporaciones. Esto genera preocupaciones sobre la privacidad de los datos, prácticas monopolísticas y acceso limitado a la tecnología de vanguardia. Además, la excesiva dependencia de Modelos de Lenguaje Grandes (LLMs) como GPT-3, a pesar de sus capacidades, conlleva problemas como altos costos computacionales, impacto ambiental y posibles sesgos en los datos en los que están entrenados. Estos modelos requieren una gran cantidad de datos y recursos, lo que los hace accesibles solo para organizaciones bien financiadas.

Assisterr aborda estos desafíos mediante la introducción de Modelos de Lenguaje Pequeño (SLMs) y promoviendo un enfoque de desarrollo de IA propiedad de la comunidad. Los SLM están diseñados para ser más eficientes, requiriendo menos potencia computacional y datos, manteniendo un alto rendimiento, lo que hace que la tecnología de IA sea más accesible y sostenible. Además, los modelos y agentes de IA propiedad de la comunidad de Assisterr empoderan a los usuarios para contribuir y beneficiarse de los avances en IA, fomentando la innovación y la inclusión, y asegurando que los beneficios de la IA se compartan de manera más amplia en la sociedad.

¿Qué es Assisterr AI?


Fuente: Sitio web de Assisterr

Assisterr AI es una plataforma de IA descentralizada diseñada para democratizar el acceso a la inteligencia artificial mediante el aprovechamiento de Modelos de Lenguaje Pequeños (SLMs) y agentes de IA de propiedad comunitaria. Su propósito principal es proporcionar una alternativa más eficiente, accesible y sostenible a los modelos de IA tradicionales, abordando las limitaciones de los Modelos de Lenguaje Grandes (LLMs) y promoviendo un ecosistema de IA colaborativo.

Características clave y beneficios de Assisterr AI

  • Modelos de Lenguaje Pequeños (SLMs): A diferencia de los LLMs, los SLMs requieren menos potencia computacional y datos, lo que los hace más accesibles y respetuosos con el medio ambiente. Están diseñados para realizar tareas específicas de manera eficiente, reduciendo la sobrecarga asociada con modelos más grandes.
  • Modelos de propiedad comunitaria: Assisterr promueve un enfoque descentralizado donde los usuarios pueden contribuir y beneficiarse de los avances de la IA. Este modelo fomenta la innovación y la inclusión, asegurando que unas pocas entidades grandes no monopolizan la tecnología de IA.
  • Herramientas sin código: Assisterr proporciona herramientas intuitivas y sin código que permiten a individuos y empresas crear y desplegar modelos de IA sin conocimientos técnicos extensos. Esto reduce la barrera de entrada y fomenta una mayor participación en el desarrollo de la IA.
  • Mercado de datos: La plataforma incluye un mercado para datos y modelos de inteligencia artificial, lo que permite a los usuarios comprar, vender y compartir recursos. Esto incentiva el intercambio de datos y la colaboración, mejorando aún más el ecosistema de IA.
  • Seguridad y Transparencia: Assisterr emplea sólidas medidas de seguridad y procesos transparentes para garantizar la integridad y confiabilidad de sus modelos de IA y transacciones de datos.

Los Modelos de Lenguaje (LLM & SLM)

Grandes Modelos de Lenguaje (GML)

Los modelos de lenguaje grandes (LLMs) como GPT-3 y BERT son modelos de IA entrenados en grandes cantidades de datos de texto para entender y generar lenguaje similar al humano. Son capaces de realizar una amplia gama de tareas, desde la finalización de texto hasta la traducción y resumen. Sin embargo, los LLM tienen varias deficiencias notables:

  • Altos Costos Computacionales: Entrenar y ejecutar LLMs requiere recursos computacionales significativos, lo que los hace costosos y ambientalmente agotadores.
  • Sesgo de datos: LLMs pueden heredar sesgos presentes en sus datos de entrenamiento, lo que lleva a salidas sesgadas o inapropiadas.
  • Accesibilidad limitada: Debido a su naturaleza intensiva en recursos, los LLM a menudo solo son accesibles para organizaciones grandes con financiamiento sustancial.
  • Problemas de escalabilidad: La estructura monolítica de LLMs puede hacerlos menos flexibles y más difíciles de adaptar a tareas o dominios específicos.

Modelos de Lenguaje Pequeños (SLMs)

Los modelos de lenguaje pequeños (SLMs), aunque similares en concepto a los LLMs, están diseñados para ser más precisos, especializados y eficientes. Al centrarse en tareas y conjuntos de datos específicos, los SLMs proporcionan un rendimiento superior para aplicaciones de nicho, lo que los hace más adecuados para casos de uso especializados. Al utilizar conjuntos de datos adaptados y centrarse en necesidades comerciales específicas, los SLMs pueden ofrecer un rendimiento superior y una adaptabilidad situacional a una fracción del costo. Esto también es alentador para la construcción de SLM de código abierto, donde proyectos más baratos han desarrollado previamente SLMs con precisión competitiva con respecto a los veteranos LLMs a costos mucho más bajos.

Técnica detrás de Assisterr AI

Modelos de lenguaje pequeños (SLM)

Los modelos de lenguaje pequeños (SLMs) son el núcleo de la tecnología de Assisterr. A diferencia de los modelos de lenguaje grandes (LLMs), los SLMs están diseñados para ser más eficientes y especializados. Se centran en tareas específicas y conjuntos de datos, lo que les permite ofrecer un rendimiento superior para aplicaciones de nicho. Esta especialización hace que los SLMs sean más accesibles y sostenibles, ya que requieren menos potencia informática y datos.

Arquitectura SLM modular

Para abordar las limitaciones de los agentes basados en LLM, han surgido enfoques avanzados que involucran múltiples modelos de lenguaje pequeños (SLM) que trabajan en marcos agentes colaborativos. Se utilizan dos enfoques principales al desarrollar agentes de IA a partir de ensambles de SLM: Mezclas de Expertos (MoE) y Mezclas de Agentes (MoA).

Mezclas de Expertos (MoE)


Fuente: Assisterr Litepaper

Cuando se combinan en conjuntos de MoE, el razonamiento moderno de SLM puede lograr una flexibilidad de aprendizaje mejorada sin perder su capacidad para la resolución de problemas funcionales. El aprendizaje de conjuntos puede combinar las habilidades de razonamiento de varios modelos más pequeños, cada uno especializado en diferentes contextos asociados, para resolver problemas complejos. Esto genera una comprensión híbrida que continúa permitiendo que la IA se sumerja profundamente. Las capas de expertos pueden estar compuestas por MoEs, creando estructuras jerárquicas para amortiguar aún más la complejidad contextual y la capacidad de resolución de problemas. Un MoE suele utilizar una capa de selección escasa que selecciona dinámicamente entre varias redes paralelas para dar la respuesta más apropiada a la solicitud. Para lograr respuestas más flexibles, los expertos individuales podrían ajustarse para la generación de código, traducción o análisis de sentimientos. Arquitecturas de MoE más sofisticadas pueden contener varias capas de MoE en combinación con otros componentes. Al igual que cualquier arquitectura de modelo de lenguaje típica, la capa de selección de MoE opera en tokens semánticos y requiere entrenamiento.

Mezclas de Agentes (MoA)

Cuando se ensamblan en arquitecturas MoA, los SLM mejoran la selectividad de los conjuntos de razonamiento diversificados, lo que permite a la IA promulgar la ejecución precisa de una tarea con la metodología requerida. Los modelos agenticos se ensamblan en un consorcio que superpone protocolos de ejecución para mejorar la eficiencia y la resolución de problemas de tareas complejas. Por lo tanto, la IA funciona en escenarios multidominio. Los equipos de agentes pueden trabajar en secuencia, mejorando iterativamente los resultados anteriores. Anteriormente, MoA ha superado significativamente a los modelos más grandes, incluida la puntuación de precisión del 57,5% de GPT-4 Omni en AlpacaEval 2.0, incluso en modelos de código abierto. Una mezcla de agentes (MoA) opera en el nivel de las salidas del modelo, no de los tokens semánticos. No cuenta con una capa de compuertas, sino que reenvía el mensaje de texto a todos los agentes de forma paralelizada. Los resultados del MoA tampoco se agregan por adición y normalización. En su lugar, se concatenan y se combinan con un mensaje de síntesis y agregación antes de pasar a un modelo separado para producir el resultado final. Por lo tanto, los modelos se dividen en "proponentes" que calculan diversos resultados y "agregadores" que integran los resultados. Al igual que en el caso de MoE, se pueden combinar varias de estas capas. La falta de capas de compuerta hace que este enfoque sea más flexible y adaptable a tareas complejas.

DeAI Economy

La economía DeAI (Inteligencia Artificial Descentralizada) es un aspecto fundamental de la plataforma de Assisterr. Utiliza la tecnología blockchain para crear un mercado descentralizado para modelos de IA y datos. Esta economía incentiva el intercambio de datos y la colaboración, asegurando que los colaboradores sean recompensados de manera justa por sus esfuerzos. Los componentes clave de la economía DeAI incluyen:

  • Data Marketplace: Una plataforma donde los usuarios pueden comprar, vender y compartir datos y modelos de IA. Este mercado fomenta el intercambio de recursos valiosos, fomentando la innovación y la colaboración dentro de la comunidad.
  • Mecanismos de incentivos: Assisterr utiliza varios mecanismos de incentivos para recompensar a los usuarios por contribuir con datos, desarrollar modelos y participar en el ecosistema. Estos incentivos garantizan que la comunidad siga activa y comprometida.
  • Transparencia y Seguridad: La tecnología blockchain proporciona un entorno transparente y seguro para las transacciones dentro de la economía de DeAI. Esto garantiza la integridad y confiabilidad de los datos y los modelos de AI, protegiendo a los usuarios de fraudes y mal uso.

Ecosistema de Assisterr

AI Labs

AssisterrAI proporciona un canal de infraestructura unificado para crear, tokenizar y distribuir Modelos de Lenguaje Pequeños (SLMs) de manera que incentive todas las contribuciones de la comunidad. El Laboratorio de IA permite a los usuarios contribuir a modelos en su área de conocimiento, convirtiéndose así en co-creadores y co-propietarios de la IA. Este enfoque asegura que los trabajadores gigantes de la IA no solo ganen en base a una transacción única, sino que también capturen un valor de mercado más amplio, asegurando un futuro mejor y haciendo que las personas se beneficien de la IA en lugar de ser víctimas del progreso y la automatización.

Para acceder a la plataforma, los usuarios conectan una billetera de Solana basada en el navegador, así como su perfil de X y cuenta de Discord. Luego pueden crear modelos a través de la pestaña AI Lab de la interfaz de usuario de Assisterr, que ofrece un formulario sencillo para especificar parámetros clave, plantillas de sugerencias y metadatos del modelo. Los usuarios pueden cargar directamente datos que se incorporarán al modelo a través de la generación aumentada de recuperación (RAG) y más tarde a través del ajuste fino. Una vez creado, el modelo puede hacerse público a través de la tienda SLM. En el futuro, el AI Lab adoptará un paradigma modular y multi-modelo con una arquitectura de Mezcla de Agentes y estrategias de recuperación aumentadas.

Tienda SLM

Los contribuyentes de Assisterr son recompensados por todos los pasos en la génesis de un modelo de IA, desde la contribución de datos y la creación del modelo hasta la validación y revisión. Este mecanismo de reparto de ingresos se implementa a través de un módulo de tokenización SLM. El Laboratorio de IA conecta eficazmente casos de uso empresarial con los datos y la experiencia requeridos. Una vez que un modelo aparece en la pestaña de la tienda SLM de la interfaz de Assisterr, cualquier usuario puede consultarlo a través de una interfaz de chatbot. Actualmente, los bots ayudan con varios nichos en los ecosistemas Web3, atención médica, desarrollo de software y finanzas.

Cada modelo en la tienda SLM viene con un tesoro denominado en el token nativo de Assisterr, que se recarga desde el saldo del usuario respectivo en cada consulta. Las consultas se pueden realizar desde la WebUI con una billetera Solana conectada o a través de una API, lo que permite acceder a modelos de la tienda SLM a través de otras aplicaciones. Los contribuyentes pueden crear SLM, ensamblarlos en agentes y desplegarlos a través de una interfaz sin código, lo que proporciona un período rápido de llegada al mercado y un ciclo de innovación rápido. Esto resuelve los desafíos de distribución y monetización a los que se enfrentan los creadores de modelos y desarrolladores independientes.

Elementos Colaborativos

A través de la pestaña Contribuir y Ganar, los usuarios pueden participar en mejoras iterativas a los modelos existentes de la tienda SLM, cumpliendo con las solicitudes de datos y validando métricas de rendimiento a cambio de tokens de gestión (MTs) o el token nativo de Assisterr. Este proceso de revisión entre pares garantiza una evolución constante y un aumento de la capacidad en la creación de modelos con el tiempo. Combinado con características como la Mezcla de Agentes (MoA), esto permite un progreso acumulativo y un ajuste continuo desde la base. La naturaleza modular y especializada de SLMs permite una integración rápida en los flujos de trabajo existentes. En el futuro, las empresas o individuos podrán describir sus problemas, y los servicios de Assisterr involucrarán un conjunto relevante de SLMs/Agentes para encontrar una solución.

Modelo de Tesorería de Assisterr

El token nativo de Assisterr es el vehículo a través del cual se ejecutan las operaciones del ecosistema AssisterrAI. Se transacciona en respuesta a la validación de acciones tomadas en el cumplimiento de protocolos de contratos inteligentes en cada etapa del proceso de desarrollo de SLM. Al aprovechar el token, los participantes pueden interactuar con las instalaciones del ecosistema Assisterr, como acceder a productos, pagar comisiones y contribuir a la creación, gestión y monetización de SLMs.

Casos de uso de Assisterr

Agentes de Gestión de Finanzas Descentralizadas (DeFi)

Los agentes de inteligencia artificial (IA) de finanzas descentralizadas (DeFi) son una innovación significativa en el espacio Web3. Yendo más allá de los sistemas recomendadores de propósito general, la IA especializada que opera dentro de límites seguros y con permisos puede optimizar y automatizar mejor las carteras financieras. Los SLMs agentes, creados para medios de transacción rápida como los protocolos DeFi de Solana, pueden mejorar el préstamo/pedido prestado, el trading perpetuo y el staking. Estos agentes proporcionan una mejor curación de datos, razonamiento multimodal y análisis funcional profundo a través de ensambles de SLM y un consorcio moderno de Mezcla de Agentes (MoA).

Agentes de negociación

Los agentes de negociación, adaptados a escenarios de negociación complejos, pueden analizar grupos de billeteras y tendencias de acción de precios, lo que resulta muy útil tanto en el volátil mercado DeFi como en las finanzas tradicionales (TradFi). La MoA basada en SLM puede ser particularmente efectiva en estrategias de negociación referenciadas por datos, donde el medio y el método de ejecución son cruciales. Estos agentes mejoran la eficiencia y rentabilidad de la negociación aprovechando algoritmos avanzados y datos en tiempo real.

Agentes de chat autónomos

Los agentes de chat autónomos con capacidades avanzadas de aprendizaje y análisis son valiosos en ámbitos académicos, sociales y profesionales. Pueden servir como intermediarios de apoyo para diversos servicios, conectando con redes sociales y aplicaciones de TI. Al incorporar funcionalidad agente, estos modelos de apoyo conversacional pueden actuar como enlaces, implementando funciones basadas en los comentarios del usuario y brindando apoyo concreto.

Avatares Públicos

Los SLM pueden crear proxies basados ​​en texto, audio o video, produciendo avatares para tareas de inmersión profunda y de cara al público. Estos avatares pueden manejar utilidades complejas como avatares en 3D, generación autónoma de texto a video e integraciones de transmisión en vivo en plataformas sociales. La MoA basada en SLM puede mejorar las interacciones multimodales de próxima generación, haciendo que los avatares de cara al público sean más interactivos y efectivos.

Relaciones con desarrolladores

El lanzamiento de una prueba de concepto especializada de Relaciones con desarrolladores Web3 (DevRel) en la plataforma AssisterrAI demostró una gran adaptación al mercado. Un régimen de DevRel sólido es esencial para involucrar a los desarrolladores y proporcionar un apoyo integral al adoptar una pila tecnológica. Sin embargo, esto conlleva costos sustanciales, con salarios para roles de DevRel que oscilan entre $90,000 y $200,000 al año. Muchas solicitudes de soporte de los desarrolladores son predecibles y se pueden automatizar, aumentando la eficiencia de DevRel mediante el uso dirigido de SLMs. Este enfoque reduce costos mientras se mantiene un soporte de alta calidad para los desarrolladores.

Empezando con Assisterr AI

Cómo registrarse en Assisterr

1. Visita el sitio web de Assisterr: Ve a Sitio web de Assisterr y haz clic en "Abrir App"

2. Conecta tu billetera: Haz clic en el botón “Seleccionar Billetera” y conecta tu billetera de Solana basada en el navegador. Esta billetera se utilizará para realizar transacciones y acceder a varias funciones en la plataforma.

3. Vincular cuentas sociales: conecte su perfil X y su cuenta de Discord. Estas conexiones ayudan a verificar su identidad e integrar su presencia social con el ecosistema de Assisterr.

4. Completa el registro: Sigue las instrucciones en pantalla para completar el proceso de registro. Una vez registrado, puedes comenzar a explorar la plataforma y sus funciones.

Accediendo a SLMs

1. Navegue a la tienda SLM: Después de iniciar sesión, vaya a la pestaña de la tienda SLMen la interfaz de Assisterr.

2. Explora los diferentes Modelos de Lenguaje Pequeños (SLMs) disponibles en la tienda. Cada modelo está diseñado para tareas e industrias específicas, como ecosistemas Web3, atención médica, desarrollo de software y finanzas.

3. Modelos de consulta: puedes consultar cualquier modelo a través de una interfaz de chatbot. Simplemente selecciona el modelo que te interese y comienza a interactuar con él. Las consultas se pueden realizar desde la interfaz web con una billetera Solana conectada o a través de una API para integración con otras aplicaciones.

Cómo crear tu primer SLM

1. Accede al Laboratorio de IA: Ve a la pestaña del Laboratorio de IAen la interfaz de Assisterr.

2. Especifique los parámetros del modelo: complete el formulario de configuración para especificar los parámetros clave, las plantillas de instrucciones y los metadatos de su modelo. Esto incluye definir el nombre del modelo, el identificador, la descripción del propósito, la categoría, la imagen de portada, los iniciadores de conversación y el conjunto de datos. También puede acelerar este proceso utilizando el asistente de IA.

3. Cargar datos: Cargue directamente los datos que se incrustarán en el modelo a través de la generación mejorada por recuperación (RAG) y el ajuste fino. Estos datos ayudan a entrenar al modelo para realizar sus tareas previstas.

4.Publique su SLM: Una vez que haya configurado el modelo, haga clic en el botón botón. Su modelo se generará y puede desear hacerlo público en la tienda SLM o mantenerlo privado. Hacerlo público permite que otros usuarios accedan a su modelo y lo consulten.

Ayudar en los esfuerzos de recaudación de fondos

Assisterr, una startup de infraestructura de IA con sede en Cambridge, cerró con éxito una ronda de financiación previa a la semilla de $1.7 millones. Esta ronda de inversión contó con la participación de destacados fondos de capital de riesgo Web3, incluidos Web3.com Ventures, Moonhill Capital, Contango, Outlier Ventures, Decasonic, Zephyrus Capital, Wise3 Ventures, Saxon, GFI Ventures, X Ventures, Koyamaki, Lucid Drakes Ventures, y ángeles notables como Michael Heinrich, Mark Rydon, Nader Dabit, Anthony Lesoismier-Geniaux y Ethan Francis. Los fondos han sido fundamentales para construir la infraestructura básica de Assisterr y lanzar su plataforma.

Desde su lanzamiento, Assisterr ha logrado hitos significativos, incluida la atracción de 150,000 usuarios registrados y el lanzamiento de más de 60 Modelos de Lenguaje Pequeños (SLMs) para los principales protocolos Web3 como Solana, Optimism, 0g.ai y NEAR. Además, Assisterr ha obtenido reconocimiento al ganar múltiples hackathons globales y participar en el programa de Startups de IA de Google, asegurando $350,000 en financiamiento para apoyar sus necesidades de infraestructura de GPU, CPU y nube.

Futuro plan de desarrollo y hitos

Assisterr tiene una hoja de ruta clara para el crecimiento y desarrollo futuro. Los hitos clave incluyen:

  1. AI Lab (Q4 2024)

    • Lanzar el AI Lab para permitir a los usuarios crear y poseer SLMs.
    • Alcanzar 500,000 usuarios.
    • Implementar el Programa de Incentivos para Creadores de SLM.
    • Desarrollar 5,000 SLMs.
    • Completa la ronda de financiación inicial.
  2. Crecimiento de la red (H1 2025)

    • Desarrollar SLM para tareas específicas del dominio.
    • Realizar el Evento de Generación de Tokens (TGE) y las listas.
    • Alcanzar 3 millones de usuarios.
    • Desarrollar 30,000 SLMs.
  3. Mezcla de agentes SLM (H2 2025)

    • Implementar la orquestación de SLM para tareas agnósticas de dominio.
    • Expandir en Web2.
    • Alcanza 10 millones de usuarios.
    • Desarrollar 100.000 SLMs.

Conclusión

Assisterr está liderando una nueva era descentralizada y propiedad de la comunidad de IA al aprovechar los Modelos de Lenguaje Pequeños (SLMs) y modelos económicos innovadores. Al abordar las limitaciones de los Modelos de Lenguaje Grandes (LLMs) y promover un enfoque colaborativo, Assisterr está haciendo que la tecnología de IA sea más accesible, eficiente y sostenible. El ecosistema integral de la plataforma, que incluye Laboratorios de IA, la Tienda SLM y elementos colaborativos, capacita a los usuarios para crear, compartir y monetizar modelos de IA.

Autor: Angelnath
Traductor: Viper
Revisor(es): Matheus、Edward
Revisor(es) de traducciones: Ashely
* La información no pretende ser ni constituye un consejo financiero ni ninguna otra recomendación de ningún tipo ofrecida o respaldada por Gate.io.
* Este artículo no se puede reproducir, transmitir ni copiar sin hacer referencia a Gate.io. La contravención es una infracción de la Ley de derechos de autor y puede estar sujeta a acciones legales.
Empieza ahora
¡Registrarse y recibe un bono de
$100
!