La industria de la IA de hoy enfrenta desafíos significativos debido a la centralización, con importantes avances a menudo controlados por unas pocas grandes corporaciones. Esto genera preocupaciones sobre la privacidad de los datos, prácticas monopolísticas y acceso limitado a la tecnología de vanguardia. Además, la excesiva dependencia de Modelos de Lenguaje Grandes (LLMs) como GPT-3, a pesar de sus capacidades, conlleva problemas como altos costos computacionales, impacto ambiental y posibles sesgos en los datos en los que están entrenados. Estos modelos requieren una gran cantidad de datos y recursos, lo que los hace accesibles solo para organizaciones bien financiadas.
Assisterr aborda estos desafíos mediante la introducción de Modelos de Lenguaje Pequeño (SLMs) y promoviendo un enfoque de desarrollo de IA propiedad de la comunidad. Los SLM están diseñados para ser más eficientes, requiriendo menos potencia computacional y datos, manteniendo un alto rendimiento, lo que hace que la tecnología de IA sea más accesible y sostenible. Además, los modelos y agentes de IA propiedad de la comunidad de Assisterr empoderan a los usuarios para contribuir y beneficiarse de los avances en IA, fomentando la innovación y la inclusión, y asegurando que los beneficios de la IA se compartan de manera más amplia en la sociedad.
Fuente: Sitio web de Assisterr
Assisterr AI es una plataforma de IA descentralizada diseñada para democratizar el acceso a la inteligencia artificial mediante el aprovechamiento de Modelos de Lenguaje Pequeños (SLMs) y agentes de IA de propiedad comunitaria. Su propósito principal es proporcionar una alternativa más eficiente, accesible y sostenible a los modelos de IA tradicionales, abordando las limitaciones de los Modelos de Lenguaje Grandes (LLMs) y promoviendo un ecosistema de IA colaborativo.
Los modelos de lenguaje grandes (LLMs) como GPT-3 y BERT son modelos de IA entrenados en grandes cantidades de datos de texto para entender y generar lenguaje similar al humano. Son capaces de realizar una amplia gama de tareas, desde la finalización de texto hasta la traducción y resumen. Sin embargo, los LLM tienen varias deficiencias notables:
Los modelos de lenguaje pequeños (SLMs), aunque similares en concepto a los LLMs, están diseñados para ser más precisos, especializados y eficientes. Al centrarse en tareas y conjuntos de datos específicos, los SLMs proporcionan un rendimiento superior para aplicaciones de nicho, lo que los hace más adecuados para casos de uso especializados. Al utilizar conjuntos de datos adaptados y centrarse en necesidades comerciales específicas, los SLMs pueden ofrecer un rendimiento superior y una adaptabilidad situacional a una fracción del costo. Esto también es alentador para la construcción de SLM de código abierto, donde proyectos más baratos han desarrollado previamente SLMs con precisión competitiva con respecto a los veteranos LLMs a costos mucho más bajos.
Los modelos de lenguaje pequeños (SLMs) son el núcleo de la tecnología de Assisterr. A diferencia de los modelos de lenguaje grandes (LLMs), los SLMs están diseñados para ser más eficientes y especializados. Se centran en tareas específicas y conjuntos de datos, lo que les permite ofrecer un rendimiento superior para aplicaciones de nicho. Esta especialización hace que los SLMs sean más accesibles y sostenibles, ya que requieren menos potencia informática y datos.
Para abordar las limitaciones de los agentes basados en LLM, han surgido enfoques avanzados que involucran múltiples modelos de lenguaje pequeños (SLM) que trabajan en marcos agentes colaborativos. Se utilizan dos enfoques principales al desarrollar agentes de IA a partir de ensambles de SLM: Mezclas de Expertos (MoE) y Mezclas de Agentes (MoA).
Mezclas de Expertos (MoE)
Fuente: Assisterr Litepaper
Cuando se combinan en conjuntos de MoE, el razonamiento moderno de SLM puede lograr una flexibilidad de aprendizaje mejorada sin perder su capacidad para la resolución de problemas funcionales. El aprendizaje de conjuntos puede combinar las habilidades de razonamiento de varios modelos más pequeños, cada uno especializado en diferentes contextos asociados, para resolver problemas complejos. Esto genera una comprensión híbrida que continúa permitiendo que la IA se sumerja profundamente. Las capas de expertos pueden estar compuestas por MoEs, creando estructuras jerárquicas para amortiguar aún más la complejidad contextual y la capacidad de resolución de problemas. Un MoE suele utilizar una capa de selección escasa que selecciona dinámicamente entre varias redes paralelas para dar la respuesta más apropiada a la solicitud. Para lograr respuestas más flexibles, los expertos individuales podrían ajustarse para la generación de código, traducción o análisis de sentimientos. Arquitecturas de MoE más sofisticadas pueden contener varias capas de MoE en combinación con otros componentes. Al igual que cualquier arquitectura de modelo de lenguaje típica, la capa de selección de MoE opera en tokens semánticos y requiere entrenamiento.
Mezclas de Agentes (MoA)
Cuando se ensamblan en arquitecturas MoA, los SLM mejoran la selectividad de los conjuntos de razonamiento diversificados, lo que permite a la IA promulgar la ejecución precisa de una tarea con la metodología requerida. Los modelos agenticos se ensamblan en un consorcio que superpone protocolos de ejecución para mejorar la eficiencia y la resolución de problemas de tareas complejas. Por lo tanto, la IA funciona en escenarios multidominio. Los equipos de agentes pueden trabajar en secuencia, mejorando iterativamente los resultados anteriores. Anteriormente, MoA ha superado significativamente a los modelos más grandes, incluida la puntuación de precisión del 57,5% de GPT-4 Omni en AlpacaEval 2.0, incluso en modelos de código abierto. Una mezcla de agentes (MoA) opera en el nivel de las salidas del modelo, no de los tokens semánticos. No cuenta con una capa de compuertas, sino que reenvía el mensaje de texto a todos los agentes de forma paralelizada. Los resultados del MoA tampoco se agregan por adición y normalización. En su lugar, se concatenan y se combinan con un mensaje de síntesis y agregación antes de pasar a un modelo separado para producir el resultado final. Por lo tanto, los modelos se dividen en "proponentes" que calculan diversos resultados y "agregadores" que integran los resultados. Al igual que en el caso de MoE, se pueden combinar varias de estas capas. La falta de capas de compuerta hace que este enfoque sea más flexible y adaptable a tareas complejas.
La economía DeAI (Inteligencia Artificial Descentralizada) es un aspecto fundamental de la plataforma de Assisterr. Utiliza la tecnología blockchain para crear un mercado descentralizado para modelos de IA y datos. Esta economía incentiva el intercambio de datos y la colaboración, asegurando que los colaboradores sean recompensados de manera justa por sus esfuerzos. Los componentes clave de la economía DeAI incluyen:
AssisterrAI proporciona un canal de infraestructura unificado para crear, tokenizar y distribuir Modelos de Lenguaje Pequeños (SLMs) de manera que incentive todas las contribuciones de la comunidad. El Laboratorio de IA permite a los usuarios contribuir a modelos en su área de conocimiento, convirtiéndose así en co-creadores y co-propietarios de la IA. Este enfoque asegura que los trabajadores gigantes de la IA no solo ganen en base a una transacción única, sino que también capturen un valor de mercado más amplio, asegurando un futuro mejor y haciendo que las personas se beneficien de la IA en lugar de ser víctimas del progreso y la automatización.
Para acceder a la plataforma, los usuarios conectan una billetera de Solana basada en el navegador, así como su perfil de X y cuenta de Discord. Luego pueden crear modelos a través de la pestaña AI Lab de la interfaz de usuario de Assisterr, que ofrece un formulario sencillo para especificar parámetros clave, plantillas de sugerencias y metadatos del modelo. Los usuarios pueden cargar directamente datos que se incorporarán al modelo a través de la generación aumentada de recuperación (RAG) y más tarde a través del ajuste fino. Una vez creado, el modelo puede hacerse público a través de la tienda SLM. En el futuro, el AI Lab adoptará un paradigma modular y multi-modelo con una arquitectura de Mezcla de Agentes y estrategias de recuperación aumentadas.
Los contribuyentes de Assisterr son recompensados por todos los pasos en la génesis de un modelo de IA, desde la contribución de datos y la creación del modelo hasta la validación y revisión. Este mecanismo de reparto de ingresos se implementa a través de un módulo de tokenización SLM. El Laboratorio de IA conecta eficazmente casos de uso empresarial con los datos y la experiencia requeridos. Una vez que un modelo aparece en la pestaña de la tienda SLM de la interfaz de Assisterr, cualquier usuario puede consultarlo a través de una interfaz de chatbot. Actualmente, los bots ayudan con varios nichos en los ecosistemas Web3, atención médica, desarrollo de software y finanzas.
Cada modelo en la tienda SLM viene con un tesoro denominado en el token nativo de Assisterr, que se recarga desde el saldo del usuario respectivo en cada consulta. Las consultas se pueden realizar desde la WebUI con una billetera Solana conectada o a través de una API, lo que permite acceder a modelos de la tienda SLM a través de otras aplicaciones. Los contribuyentes pueden crear SLM, ensamblarlos en agentes y desplegarlos a través de una interfaz sin código, lo que proporciona un período rápido de llegada al mercado y un ciclo de innovación rápido. Esto resuelve los desafíos de distribución y monetización a los que se enfrentan los creadores de modelos y desarrolladores independientes.
A través de la pestaña Contribuir y Ganar, los usuarios pueden participar en mejoras iterativas a los modelos existentes de la tienda SLM, cumpliendo con las solicitudes de datos y validando métricas de rendimiento a cambio de tokens de gestión (MTs) o el token nativo de Assisterr. Este proceso de revisión entre pares garantiza una evolución constante y un aumento de la capacidad en la creación de modelos con el tiempo. Combinado con características como la Mezcla de Agentes (MoA), esto permite un progreso acumulativo y un ajuste continuo desde la base. La naturaleza modular y especializada de SLMs permite una integración rápida en los flujos de trabajo existentes. En el futuro, las empresas o individuos podrán describir sus problemas, y los servicios de Assisterr involucrarán un conjunto relevante de SLMs/Agentes para encontrar una solución.
El token nativo de Assisterr es el vehículo a través del cual se ejecutan las operaciones del ecosistema AssisterrAI. Se transacciona en respuesta a la validación de acciones tomadas en el cumplimiento de protocolos de contratos inteligentes en cada etapa del proceso de desarrollo de SLM. Al aprovechar el token, los participantes pueden interactuar con las instalaciones del ecosistema Assisterr, como acceder a productos, pagar comisiones y contribuir a la creación, gestión y monetización de SLMs.
Los agentes de inteligencia artificial (IA) de finanzas descentralizadas (DeFi) son una innovación significativa en el espacio Web3. Yendo más allá de los sistemas recomendadores de propósito general, la IA especializada que opera dentro de límites seguros y con permisos puede optimizar y automatizar mejor las carteras financieras. Los SLMs agentes, creados para medios de transacción rápida como los protocolos DeFi de Solana, pueden mejorar el préstamo/pedido prestado, el trading perpetuo y el staking. Estos agentes proporcionan una mejor curación de datos, razonamiento multimodal y análisis funcional profundo a través de ensambles de SLM y un consorcio moderno de Mezcla de Agentes (MoA).
Los agentes de negociación, adaptados a escenarios de negociación complejos, pueden analizar grupos de billeteras y tendencias de acción de precios, lo que resulta muy útil tanto en el volátil mercado DeFi como en las finanzas tradicionales (TradFi). La MoA basada en SLM puede ser particularmente efectiva en estrategias de negociación referenciadas por datos, donde el medio y el método de ejecución son cruciales. Estos agentes mejoran la eficiencia y rentabilidad de la negociación aprovechando algoritmos avanzados y datos en tiempo real.
Los agentes de chat autónomos con capacidades avanzadas de aprendizaje y análisis son valiosos en ámbitos académicos, sociales y profesionales. Pueden servir como intermediarios de apoyo para diversos servicios, conectando con redes sociales y aplicaciones de TI. Al incorporar funcionalidad agente, estos modelos de apoyo conversacional pueden actuar como enlaces, implementando funciones basadas en los comentarios del usuario y brindando apoyo concreto.
Los SLM pueden crear proxies basados en texto, audio o video, produciendo avatares para tareas de inmersión profunda y de cara al público. Estos avatares pueden manejar utilidades complejas como avatares en 3D, generación autónoma de texto a video e integraciones de transmisión en vivo en plataformas sociales. La MoA basada en SLM puede mejorar las interacciones multimodales de próxima generación, haciendo que los avatares de cara al público sean más interactivos y efectivos.
El lanzamiento de una prueba de concepto especializada de Relaciones con desarrolladores Web3 (DevRel) en la plataforma AssisterrAI demostró una gran adaptación al mercado. Un régimen de DevRel sólido es esencial para involucrar a los desarrolladores y proporcionar un apoyo integral al adoptar una pila tecnológica. Sin embargo, esto conlleva costos sustanciales, con salarios para roles de DevRel que oscilan entre $90,000 y $200,000 al año. Muchas solicitudes de soporte de los desarrolladores son predecibles y se pueden automatizar, aumentando la eficiencia de DevRel mediante el uso dirigido de SLMs. Este enfoque reduce costos mientras se mantiene un soporte de alta calidad para los desarrolladores.
1. Visita el sitio web de Assisterr: Ve a Sitio web de Assisterr y haz clic en "Abrir App"
2. Conecta tu billetera: Haz clic en el botón “Seleccionar Billetera” y conecta tu billetera de Solana basada en el navegador. Esta billetera se utilizará para realizar transacciones y acceder a varias funciones en la plataforma.
3. Vincular cuentas sociales: conecte su perfil X y su cuenta de Discord. Estas conexiones ayudan a verificar su identidad e integrar su presencia social con el ecosistema de Assisterr.
4. Completa el registro: Sigue las instrucciones en pantalla para completar el proceso de registro. Una vez registrado, puedes comenzar a explorar la plataforma y sus funciones.
1. Navegue a la tienda SLM: Después de iniciar sesión, vaya a la pestaña de la tienda SLMen la interfaz de Assisterr.
2. Explora los diferentes Modelos de Lenguaje Pequeños (SLMs) disponibles en la tienda. Cada modelo está diseñado para tareas e industrias específicas, como ecosistemas Web3, atención médica, desarrollo de software y finanzas.
3. Modelos de consulta: puedes consultar cualquier modelo a través de una interfaz de chatbot. Simplemente selecciona el modelo que te interese y comienza a interactuar con él. Las consultas se pueden realizar desde la interfaz web con una billetera Solana conectada o a través de una API para integración con otras aplicaciones.
1. Accede al Laboratorio de IA: Ve a la pestaña del Laboratorio de IAen la interfaz de Assisterr.
2. Especifique los parámetros del modelo: complete el formulario de configuración para especificar los parámetros clave, las plantillas de instrucciones y los metadatos de su modelo. Esto incluye definir el nombre del modelo, el identificador, la descripción del propósito, la categoría, la imagen de portada, los iniciadores de conversación y el conjunto de datos. También puede acelerar este proceso utilizando el asistente de IA.
3. Cargar datos: Cargue directamente los datos que se incrustarán en el modelo a través de la generación mejorada por recuperación (RAG) y el ajuste fino. Estos datos ayudan a entrenar al modelo para realizar sus tareas previstas.
4.Publique su SLM: Una vez que haya configurado el modelo, haga clic en el botón botón. Su modelo se generará y puede desear hacerlo público en la tienda SLM o mantenerlo privado. Hacerlo público permite que otros usuarios accedan a su modelo y lo consulten.
Assisterr, una startup de infraestructura de IA con sede en Cambridge, cerró con éxito una ronda de financiación previa a la semilla de $1.7 millones. Esta ronda de inversión contó con la participación de destacados fondos de capital de riesgo Web3, incluidos Web3.com Ventures, Moonhill Capital, Contango, Outlier Ventures, Decasonic, Zephyrus Capital, Wise3 Ventures, Saxon, GFI Ventures, X Ventures, Koyamaki, Lucid Drakes Ventures, y ángeles notables como Michael Heinrich, Mark Rydon, Nader Dabit, Anthony Lesoismier-Geniaux y Ethan Francis. Los fondos han sido fundamentales para construir la infraestructura básica de Assisterr y lanzar su plataforma.
Desde su lanzamiento, Assisterr ha logrado hitos significativos, incluida la atracción de 150,000 usuarios registrados y el lanzamiento de más de 60 Modelos de Lenguaje Pequeños (SLMs) para los principales protocolos Web3 como Solana, Optimism, 0g.ai y NEAR. Además, Assisterr ha obtenido reconocimiento al ganar múltiples hackathons globales y participar en el programa de Startups de IA de Google, asegurando $350,000 en financiamiento para apoyar sus necesidades de infraestructura de GPU, CPU y nube.
Assisterr tiene una hoja de ruta clara para el crecimiento y desarrollo futuro. Los hitos clave incluyen:
AI Lab (Q4 2024)
Crecimiento de la red (H1 2025)
Mezcla de agentes SLM (H2 2025)
Assisterr está liderando una nueva era descentralizada y propiedad de la comunidad de IA al aprovechar los Modelos de Lenguaje Pequeños (SLMs) y modelos económicos innovadores. Al abordar las limitaciones de los Modelos de Lenguaje Grandes (LLMs) y promover un enfoque colaborativo, Assisterr está haciendo que la tecnología de IA sea más accesible, eficiente y sostenible. El ecosistema integral de la plataforma, que incluye Laboratorios de IA, la Tienda SLM y elementos colaborativos, capacita a los usuarios para crear, compartir y monetizar modelos de IA.
La industria de la IA de hoy enfrenta desafíos significativos debido a la centralización, con importantes avances a menudo controlados por unas pocas grandes corporaciones. Esto genera preocupaciones sobre la privacidad de los datos, prácticas monopolísticas y acceso limitado a la tecnología de vanguardia. Además, la excesiva dependencia de Modelos de Lenguaje Grandes (LLMs) como GPT-3, a pesar de sus capacidades, conlleva problemas como altos costos computacionales, impacto ambiental y posibles sesgos en los datos en los que están entrenados. Estos modelos requieren una gran cantidad de datos y recursos, lo que los hace accesibles solo para organizaciones bien financiadas.
Assisterr aborda estos desafíos mediante la introducción de Modelos de Lenguaje Pequeño (SLMs) y promoviendo un enfoque de desarrollo de IA propiedad de la comunidad. Los SLM están diseñados para ser más eficientes, requiriendo menos potencia computacional y datos, manteniendo un alto rendimiento, lo que hace que la tecnología de IA sea más accesible y sostenible. Además, los modelos y agentes de IA propiedad de la comunidad de Assisterr empoderan a los usuarios para contribuir y beneficiarse de los avances en IA, fomentando la innovación y la inclusión, y asegurando que los beneficios de la IA se compartan de manera más amplia en la sociedad.
Fuente: Sitio web de Assisterr
Assisterr AI es una plataforma de IA descentralizada diseñada para democratizar el acceso a la inteligencia artificial mediante el aprovechamiento de Modelos de Lenguaje Pequeños (SLMs) y agentes de IA de propiedad comunitaria. Su propósito principal es proporcionar una alternativa más eficiente, accesible y sostenible a los modelos de IA tradicionales, abordando las limitaciones de los Modelos de Lenguaje Grandes (LLMs) y promoviendo un ecosistema de IA colaborativo.
Los modelos de lenguaje grandes (LLMs) como GPT-3 y BERT son modelos de IA entrenados en grandes cantidades de datos de texto para entender y generar lenguaje similar al humano. Son capaces de realizar una amplia gama de tareas, desde la finalización de texto hasta la traducción y resumen. Sin embargo, los LLM tienen varias deficiencias notables:
Los modelos de lenguaje pequeños (SLMs), aunque similares en concepto a los LLMs, están diseñados para ser más precisos, especializados y eficientes. Al centrarse en tareas y conjuntos de datos específicos, los SLMs proporcionan un rendimiento superior para aplicaciones de nicho, lo que los hace más adecuados para casos de uso especializados. Al utilizar conjuntos de datos adaptados y centrarse en necesidades comerciales específicas, los SLMs pueden ofrecer un rendimiento superior y una adaptabilidad situacional a una fracción del costo. Esto también es alentador para la construcción de SLM de código abierto, donde proyectos más baratos han desarrollado previamente SLMs con precisión competitiva con respecto a los veteranos LLMs a costos mucho más bajos.
Los modelos de lenguaje pequeños (SLMs) son el núcleo de la tecnología de Assisterr. A diferencia de los modelos de lenguaje grandes (LLMs), los SLMs están diseñados para ser más eficientes y especializados. Se centran en tareas específicas y conjuntos de datos, lo que les permite ofrecer un rendimiento superior para aplicaciones de nicho. Esta especialización hace que los SLMs sean más accesibles y sostenibles, ya que requieren menos potencia informática y datos.
Para abordar las limitaciones de los agentes basados en LLM, han surgido enfoques avanzados que involucran múltiples modelos de lenguaje pequeños (SLM) que trabajan en marcos agentes colaborativos. Se utilizan dos enfoques principales al desarrollar agentes de IA a partir de ensambles de SLM: Mezclas de Expertos (MoE) y Mezclas de Agentes (MoA).
Mezclas de Expertos (MoE)
Fuente: Assisterr Litepaper
Cuando se combinan en conjuntos de MoE, el razonamiento moderno de SLM puede lograr una flexibilidad de aprendizaje mejorada sin perder su capacidad para la resolución de problemas funcionales. El aprendizaje de conjuntos puede combinar las habilidades de razonamiento de varios modelos más pequeños, cada uno especializado en diferentes contextos asociados, para resolver problemas complejos. Esto genera una comprensión híbrida que continúa permitiendo que la IA se sumerja profundamente. Las capas de expertos pueden estar compuestas por MoEs, creando estructuras jerárquicas para amortiguar aún más la complejidad contextual y la capacidad de resolución de problemas. Un MoE suele utilizar una capa de selección escasa que selecciona dinámicamente entre varias redes paralelas para dar la respuesta más apropiada a la solicitud. Para lograr respuestas más flexibles, los expertos individuales podrían ajustarse para la generación de código, traducción o análisis de sentimientos. Arquitecturas de MoE más sofisticadas pueden contener varias capas de MoE en combinación con otros componentes. Al igual que cualquier arquitectura de modelo de lenguaje típica, la capa de selección de MoE opera en tokens semánticos y requiere entrenamiento.
Mezclas de Agentes (MoA)
Cuando se ensamblan en arquitecturas MoA, los SLM mejoran la selectividad de los conjuntos de razonamiento diversificados, lo que permite a la IA promulgar la ejecución precisa de una tarea con la metodología requerida. Los modelos agenticos se ensamblan en un consorcio que superpone protocolos de ejecución para mejorar la eficiencia y la resolución de problemas de tareas complejas. Por lo tanto, la IA funciona en escenarios multidominio. Los equipos de agentes pueden trabajar en secuencia, mejorando iterativamente los resultados anteriores. Anteriormente, MoA ha superado significativamente a los modelos más grandes, incluida la puntuación de precisión del 57,5% de GPT-4 Omni en AlpacaEval 2.0, incluso en modelos de código abierto. Una mezcla de agentes (MoA) opera en el nivel de las salidas del modelo, no de los tokens semánticos. No cuenta con una capa de compuertas, sino que reenvía el mensaje de texto a todos los agentes de forma paralelizada. Los resultados del MoA tampoco se agregan por adición y normalización. En su lugar, se concatenan y se combinan con un mensaje de síntesis y agregación antes de pasar a un modelo separado para producir el resultado final. Por lo tanto, los modelos se dividen en "proponentes" que calculan diversos resultados y "agregadores" que integran los resultados. Al igual que en el caso de MoE, se pueden combinar varias de estas capas. La falta de capas de compuerta hace que este enfoque sea más flexible y adaptable a tareas complejas.
La economía DeAI (Inteligencia Artificial Descentralizada) es un aspecto fundamental de la plataforma de Assisterr. Utiliza la tecnología blockchain para crear un mercado descentralizado para modelos de IA y datos. Esta economía incentiva el intercambio de datos y la colaboración, asegurando que los colaboradores sean recompensados de manera justa por sus esfuerzos. Los componentes clave de la economía DeAI incluyen:
AssisterrAI proporciona un canal de infraestructura unificado para crear, tokenizar y distribuir Modelos de Lenguaje Pequeños (SLMs) de manera que incentive todas las contribuciones de la comunidad. El Laboratorio de IA permite a los usuarios contribuir a modelos en su área de conocimiento, convirtiéndose así en co-creadores y co-propietarios de la IA. Este enfoque asegura que los trabajadores gigantes de la IA no solo ganen en base a una transacción única, sino que también capturen un valor de mercado más amplio, asegurando un futuro mejor y haciendo que las personas se beneficien de la IA en lugar de ser víctimas del progreso y la automatización.
Para acceder a la plataforma, los usuarios conectan una billetera de Solana basada en el navegador, así como su perfil de X y cuenta de Discord. Luego pueden crear modelos a través de la pestaña AI Lab de la interfaz de usuario de Assisterr, que ofrece un formulario sencillo para especificar parámetros clave, plantillas de sugerencias y metadatos del modelo. Los usuarios pueden cargar directamente datos que se incorporarán al modelo a través de la generación aumentada de recuperación (RAG) y más tarde a través del ajuste fino. Una vez creado, el modelo puede hacerse público a través de la tienda SLM. En el futuro, el AI Lab adoptará un paradigma modular y multi-modelo con una arquitectura de Mezcla de Agentes y estrategias de recuperación aumentadas.
Los contribuyentes de Assisterr son recompensados por todos los pasos en la génesis de un modelo de IA, desde la contribución de datos y la creación del modelo hasta la validación y revisión. Este mecanismo de reparto de ingresos se implementa a través de un módulo de tokenización SLM. El Laboratorio de IA conecta eficazmente casos de uso empresarial con los datos y la experiencia requeridos. Una vez que un modelo aparece en la pestaña de la tienda SLM de la interfaz de Assisterr, cualquier usuario puede consultarlo a través de una interfaz de chatbot. Actualmente, los bots ayudan con varios nichos en los ecosistemas Web3, atención médica, desarrollo de software y finanzas.
Cada modelo en la tienda SLM viene con un tesoro denominado en el token nativo de Assisterr, que se recarga desde el saldo del usuario respectivo en cada consulta. Las consultas se pueden realizar desde la WebUI con una billetera Solana conectada o a través de una API, lo que permite acceder a modelos de la tienda SLM a través de otras aplicaciones. Los contribuyentes pueden crear SLM, ensamblarlos en agentes y desplegarlos a través de una interfaz sin código, lo que proporciona un período rápido de llegada al mercado y un ciclo de innovación rápido. Esto resuelve los desafíos de distribución y monetización a los que se enfrentan los creadores de modelos y desarrolladores independientes.
A través de la pestaña Contribuir y Ganar, los usuarios pueden participar en mejoras iterativas a los modelos existentes de la tienda SLM, cumpliendo con las solicitudes de datos y validando métricas de rendimiento a cambio de tokens de gestión (MTs) o el token nativo de Assisterr. Este proceso de revisión entre pares garantiza una evolución constante y un aumento de la capacidad en la creación de modelos con el tiempo. Combinado con características como la Mezcla de Agentes (MoA), esto permite un progreso acumulativo y un ajuste continuo desde la base. La naturaleza modular y especializada de SLMs permite una integración rápida en los flujos de trabajo existentes. En el futuro, las empresas o individuos podrán describir sus problemas, y los servicios de Assisterr involucrarán un conjunto relevante de SLMs/Agentes para encontrar una solución.
El token nativo de Assisterr es el vehículo a través del cual se ejecutan las operaciones del ecosistema AssisterrAI. Se transacciona en respuesta a la validación de acciones tomadas en el cumplimiento de protocolos de contratos inteligentes en cada etapa del proceso de desarrollo de SLM. Al aprovechar el token, los participantes pueden interactuar con las instalaciones del ecosistema Assisterr, como acceder a productos, pagar comisiones y contribuir a la creación, gestión y monetización de SLMs.
Los agentes de inteligencia artificial (IA) de finanzas descentralizadas (DeFi) son una innovación significativa en el espacio Web3. Yendo más allá de los sistemas recomendadores de propósito general, la IA especializada que opera dentro de límites seguros y con permisos puede optimizar y automatizar mejor las carteras financieras. Los SLMs agentes, creados para medios de transacción rápida como los protocolos DeFi de Solana, pueden mejorar el préstamo/pedido prestado, el trading perpetuo y el staking. Estos agentes proporcionan una mejor curación de datos, razonamiento multimodal y análisis funcional profundo a través de ensambles de SLM y un consorcio moderno de Mezcla de Agentes (MoA).
Los agentes de negociación, adaptados a escenarios de negociación complejos, pueden analizar grupos de billeteras y tendencias de acción de precios, lo que resulta muy útil tanto en el volátil mercado DeFi como en las finanzas tradicionales (TradFi). La MoA basada en SLM puede ser particularmente efectiva en estrategias de negociación referenciadas por datos, donde el medio y el método de ejecución son cruciales. Estos agentes mejoran la eficiencia y rentabilidad de la negociación aprovechando algoritmos avanzados y datos en tiempo real.
Los agentes de chat autónomos con capacidades avanzadas de aprendizaje y análisis son valiosos en ámbitos académicos, sociales y profesionales. Pueden servir como intermediarios de apoyo para diversos servicios, conectando con redes sociales y aplicaciones de TI. Al incorporar funcionalidad agente, estos modelos de apoyo conversacional pueden actuar como enlaces, implementando funciones basadas en los comentarios del usuario y brindando apoyo concreto.
Los SLM pueden crear proxies basados en texto, audio o video, produciendo avatares para tareas de inmersión profunda y de cara al público. Estos avatares pueden manejar utilidades complejas como avatares en 3D, generación autónoma de texto a video e integraciones de transmisión en vivo en plataformas sociales. La MoA basada en SLM puede mejorar las interacciones multimodales de próxima generación, haciendo que los avatares de cara al público sean más interactivos y efectivos.
El lanzamiento de una prueba de concepto especializada de Relaciones con desarrolladores Web3 (DevRel) en la plataforma AssisterrAI demostró una gran adaptación al mercado. Un régimen de DevRel sólido es esencial para involucrar a los desarrolladores y proporcionar un apoyo integral al adoptar una pila tecnológica. Sin embargo, esto conlleva costos sustanciales, con salarios para roles de DevRel que oscilan entre $90,000 y $200,000 al año. Muchas solicitudes de soporte de los desarrolladores son predecibles y se pueden automatizar, aumentando la eficiencia de DevRel mediante el uso dirigido de SLMs. Este enfoque reduce costos mientras se mantiene un soporte de alta calidad para los desarrolladores.
1. Visita el sitio web de Assisterr: Ve a Sitio web de Assisterr y haz clic en "Abrir App"
2. Conecta tu billetera: Haz clic en el botón “Seleccionar Billetera” y conecta tu billetera de Solana basada en el navegador. Esta billetera se utilizará para realizar transacciones y acceder a varias funciones en la plataforma.
3. Vincular cuentas sociales: conecte su perfil X y su cuenta de Discord. Estas conexiones ayudan a verificar su identidad e integrar su presencia social con el ecosistema de Assisterr.
4. Completa el registro: Sigue las instrucciones en pantalla para completar el proceso de registro. Una vez registrado, puedes comenzar a explorar la plataforma y sus funciones.
1. Navegue a la tienda SLM: Después de iniciar sesión, vaya a la pestaña de la tienda SLMen la interfaz de Assisterr.
2. Explora los diferentes Modelos de Lenguaje Pequeños (SLMs) disponibles en la tienda. Cada modelo está diseñado para tareas e industrias específicas, como ecosistemas Web3, atención médica, desarrollo de software y finanzas.
3. Modelos de consulta: puedes consultar cualquier modelo a través de una interfaz de chatbot. Simplemente selecciona el modelo que te interese y comienza a interactuar con él. Las consultas se pueden realizar desde la interfaz web con una billetera Solana conectada o a través de una API para integración con otras aplicaciones.
1. Accede al Laboratorio de IA: Ve a la pestaña del Laboratorio de IAen la interfaz de Assisterr.
2. Especifique los parámetros del modelo: complete el formulario de configuración para especificar los parámetros clave, las plantillas de instrucciones y los metadatos de su modelo. Esto incluye definir el nombre del modelo, el identificador, la descripción del propósito, la categoría, la imagen de portada, los iniciadores de conversación y el conjunto de datos. También puede acelerar este proceso utilizando el asistente de IA.
3. Cargar datos: Cargue directamente los datos que se incrustarán en el modelo a través de la generación mejorada por recuperación (RAG) y el ajuste fino. Estos datos ayudan a entrenar al modelo para realizar sus tareas previstas.
4.Publique su SLM: Una vez que haya configurado el modelo, haga clic en el botón botón. Su modelo se generará y puede desear hacerlo público en la tienda SLM o mantenerlo privado. Hacerlo público permite que otros usuarios accedan a su modelo y lo consulten.
Assisterr, una startup de infraestructura de IA con sede en Cambridge, cerró con éxito una ronda de financiación previa a la semilla de $1.7 millones. Esta ronda de inversión contó con la participación de destacados fondos de capital de riesgo Web3, incluidos Web3.com Ventures, Moonhill Capital, Contango, Outlier Ventures, Decasonic, Zephyrus Capital, Wise3 Ventures, Saxon, GFI Ventures, X Ventures, Koyamaki, Lucid Drakes Ventures, y ángeles notables como Michael Heinrich, Mark Rydon, Nader Dabit, Anthony Lesoismier-Geniaux y Ethan Francis. Los fondos han sido fundamentales para construir la infraestructura básica de Assisterr y lanzar su plataforma.
Desde su lanzamiento, Assisterr ha logrado hitos significativos, incluida la atracción de 150,000 usuarios registrados y el lanzamiento de más de 60 Modelos de Lenguaje Pequeños (SLMs) para los principales protocolos Web3 como Solana, Optimism, 0g.ai y NEAR. Además, Assisterr ha obtenido reconocimiento al ganar múltiples hackathons globales y participar en el programa de Startups de IA de Google, asegurando $350,000 en financiamiento para apoyar sus necesidades de infraestructura de GPU, CPU y nube.
Assisterr tiene una hoja de ruta clara para el crecimiento y desarrollo futuro. Los hitos clave incluyen:
AI Lab (Q4 2024)
Crecimiento de la red (H1 2025)
Mezcla de agentes SLM (H2 2025)
Assisterr está liderando una nueva era descentralizada y propiedad de la comunidad de IA al aprovechar los Modelos de Lenguaje Pequeños (SLMs) y modelos económicos innovadores. Al abordar las limitaciones de los Modelos de Lenguaje Grandes (LLMs) y promover un enfoque colaborativo, Assisterr está haciendo que la tecnología de IA sea más accesible, eficiente y sostenible. El ecosistema integral de la plataforma, que incluye Laboratorios de IA, la Tienda SLM y elementos colaborativos, capacita a los usuarios para crear, compartir y monetizar modelos de IA.