Enviar el Título Original: DeAI Compressed
Dado que las criptomonedas son esencialmente software de código abierto con incentivos financieros incorporados, y la IA está interrumpiendo la forma en que se escribe el software, es lógico pensar que la IA tendrá un impacto masivo en el espacio de la cadena de bloques en todos sus niveles.
Para mí, los mayores desafíos que enfrenta DeAI se encuentran en la capa de infraestructura dada la intensidad de capital necesaria para construir modelos fundamentales y los rendimientos a escala en datos y cálculos.
Dadas las leyes de escala, las Big Tech tienen una ventaja pronunciada: aprovechar sus enormes reservas de guerra de los beneficios del monopolio en la agregación de la demanda del consumidor durante la segunda generación de internet y reinvertirlas en la infraestructura en la nube durante una década de tasas artificialmente bajas, los hipereescaladores ahora intentan capturar el mercado de la inteligencia al acaparar los datos y la computación, los ingredientes clave para la IA:
Debido a la intensidad de capital y los altos requisitos de ancho de banda de grandes ejecuciones de capacitación, los supercúmulos unificados siguen siendo óptimos, proporcionando a las grandes empresas de tecnología los modelos más eficientes, de código cerrado, que planean alquilar con márgenes oligopólicos, reinvertiendo los ingresos en cada generación subsiguiente.
Sin embargo, los fosos en la IA han demostrado ser menos profundos que los efectos de red de web2, con modelos fronterizos líderes que se deprecian rápidamente en relación con el campo, especialmente con Meta adoptando una política de "tierra quemada" y comprometiéndose con decenas de miles de millones para modelos fronterizos de código abierto como Llama 3.1 con rendimiento de nivel SOTA.
Esto, junto coninvestigación emergenteen métodos de entrenamiento descentralizado de baja latencia, puede (parcialmente) mercantilizar modelos de negocios de vanguardia, desplazando (al menos en parte) la competencia de los superclusters de hardware (favoreciendo a las grandes tecnológicas) a la innovación de software (favoreciendo marginalmente al código abierto / cripto) a medida que cae el precio de la inteligencia.
Dada la eficiencia informática de las arquitecturas de "mezcla de expertos" y la síntesis/enrutamiento de LLM, parece probable que nos estemos dirigiendo no hacia un mundo de 3 a 5 mega modelos, sino hacia un tapiz de millones de modelos con diferentes compensaciones de costo/rendimiento. Una red de inteligencia entrelazada. Una mente colmena.
Esto se convierte en un gran problema de coordinación: el tipo para el cual las cadenas de bloques y los incentivos criptográficos deberían estar bien equipados para ayudar.
El software está devorando el mundo. La IA está devorando el software. Y la IA es básicamente solo datos y cálculos.
Cualquier cosa que pueda obtener de manera más eficiente los dos insumos anteriores (infraestructura), coordinarlos (middleware) y satisfacer las demandas del usuario (aplicaciones), será valiosa.
Delphi es alcista en varios componentes en toda la pila:
Dado que la IA se alimenta de datos y cálculos, la infraestructura de DeAI se dedica a obtener ambos de la manera más eficiente posible, generalmente utilizando incentivos criptográficos. Como mencionamos anteriormente, esta es la parte más desafiante de la cadena en la que competir, pero también potencialmente la más gratificante dada la magnitud de los mercados finales.
Si bien hasta ahora se ha visto frenado por la latencia, los protocolos de entrenamiento descentralizados y los mercados de GPU esperan orquestar hardware latente y heterogéneo para proporcionar cálculo bajo demanda a menor costo para aquellos que no pueden acceder a las soluciones integradas de las grandes empresas tecnológicas. Jugadores como Gensyn, Prime Intellect y Neuromesh están empujando los límites del entrenamiento distribuido mientrasio.net, Akash, Aethir, etc. están permitiendo inferencias de menor costo más cerca del borde.
En un mundo de inteligencia ubicua basada en modelos más pequeños y especializados, los activos de datos son cada vez más valiosos y monetizables.
Hasta la fecha, los DePIN (redes físicas descentralizadas) han sido ampliamente elogiados por su capacidad para construir redes de hardware de menor costo en comparación con los incumbentes intensivos en capital (por ejemplo, las compañías de telecomunicaciones). Sin embargo, potencialmente el mercado más grande de DePIN surgirá en la recopilación de conjuntos de datos novedosos que fluyen hacia las inteligencias en cadena:protocolos agentes (para discutir más adelante).
En un mundo donde el trabajo -¿la mayor TAM del mundo?- está siendo reemplazado por una combinación de datos y cálculos, la infraestructura de DeAI proporciona una forma para que los no Tech Barons puedanAprovechar los medios de producción y contribuir a la próxima economía en red.
El objetivo final de DeAI es un cálculo efectivamente componible. Al igual que los Lego del dinero DeFi, la IA descentralizada compensa la falta de rendimiento absoluto hoy en día con la componibilidad sin permisos, incentivando un ecosistema abierto de software y primitivas de cálculo que se van acumulando con el tiempo para (con suerte) superar a los actores existentes.
Si Google es "el extremo integrado", entonces DeAI representa el extremo "modular". ComoClayton Christensennos recuerda que los enfoques integrados tienden a liderar en las industrias de reciente aparición al reducir la fricción en la cadena de valor, pero a medida que el espacio madura, las cadenas de valor modularizadas ganan participación a través de una mayor competencia y eficiencia de costos en cada capa de la estructura:
Somos bastante optimistas sobre varias categorías esenciales para habilitar esta visión modular:
En un mundo de inteligencia fragmentada, ¿cómo se puede elegir el modelo adecuado y el momento adecuado al mejor precio posible? Los agregadores del lado de la demanda siempre han capturado valor (verteoría de la agregación) y la función de enrutamiento es esencial para optimizar la curva de Pareto entre rendimiento y costos en el mundo de la inteligencia en red:
Bittensor ha sido el líder aquí en la generación 1, pero están surgiendo una serie de competidores dedicados.
Alloraorganiza competencias entre diferentes modelos en varios 'temas' de una manera 'consciente del contexto' y que mejora con el tiempo, informando predicciones futuras basadas en la precisión histórica en condiciones específicas.
Morpheusbusca convertirse en el "enrutador del lado de la demanda" para casos de uso de web3, esencialmente una "inteligencia Apple" con un agente local de código abierto que tiene el contexto relevante del usuario y puede enrutar consultas de manera eficiente a través de DeFi o los bloques de construcción emergentes de la infraestructura de "cómputo componible" de web3.
Protocolos de interoperabilidad de agentes comoTheoriqy Autonolaspretende llevar el enrutamiento modular al extremo al permitir ecosistemas componibles y acumulativos de agentes o componentes flexibles en servicios completos en cadena.
En resumen, en un mundo de inteligencia que se fragmenta rápidamente, los agregadores de la oferta y la demanda jugarán un papel extremadamente poderoso. Si Google se convirtió en una empresa de US$2t indexando la información del mundo, entonces el ganador en los enrutadores del lado de la demanda, ya sea Apple o Google o una solución web3, que indexa inteligencia agentica, debería ser aún más grande.
Dada su descentralización, las cadenas de bloques están altamente limitadas tanto en datos como en capacidad de cálculo. ¿Cómo se pueden llevar las aplicaciones de inteligencia artificial intensivas en cálculo y datos que los usuarios demandarán a la cadena?
¡Co-procesadores!
Fuente:Florin Digital
Estos son efectivamente "oráculos" que ofrecen diferentes técnicas para "verificar" los datos subyacentes o el modelo que se utiliza de una manera que minimiza las nuevas suposiciones de confianza en cadena mientras ofrece aumentos sustanciales de capacidad. Hasta la fecha, ha habido una serie de proyectos que utilizan zkML, opML, TeeML y enfoques cripto económicos, todos con diferentes ventajas y desventajas:
Para una revisión más detallada, por favor consulte nuestro informe DeAI parte III que será publicado en las próximas semanas.
A un alto nivel, los coprocesadores son esenciales para hacer que los contratos inteligentes, bueno... sean inteligentes, proporcionando soluciones tipo "almacén de datos" para consultar experiencias en cadena más personalizadas o proporcionando verificación de que una inferencia determinada se completó correctamente.
Redes TEE comoSuper,Phala, yMarlinen particular han estado ganando popularidad recientemente dada su practicidad y disposición para alojar aplicaciones a escala hoy.
En general, los co-procesadores son esenciales para fusionar las cadenas de bloques altamente deterministas pero de bajo rendimiento con las inteligencias altamente performantes pero probabilísticas. Sin los co-procesadores, la IA no llegaría a esta generación de cadenas de bloques.
Uno de los mayores problemas del desarrollo de código abierto en la inteligencia artificial ha sido la falta de incentivos para hacerlo sostenible. El desarrollo de inteligencia artificial requiere una gran cantidad de capital, y el costo de oportunidad tanto del cálculo como del trabajo en conocimientos de IA es muy alto. Sin los incentivos adecuados para recompensar las contribuciones de código abierto, el espacio inevitablemente perderá frente a los hiper-capitalistas hipereescaladores.
Una gran cantidad de proyectos deSentientaPluralisaSahara aMiratodos tienen como objetivo iniciar redes que permitan y recompensen adecuadamente las contribuciones a las inteligencias en red de redes fragmentadas de individuos.
Al arreglar el modelo de negocio, la combinación del código abierto debería acelerarse, brindando a los desarrolladores e investigadores de IA una opción fuera de las grandes tecnológicas que sea global por naturaleza y, con suerte, también bien remunerada en función del valor creado.
Si bien es muy complicado hacerlo bien y cada vez más competitivo, el TAM aquí es enorme.
Donde los LLMs delinean patrones en grandes corpora de textos y aprenden a predecir la siguiente palabra, las Redes Neuronales Gráficas (GNNs) procesan, analizan y aprenden a partir de datos estructurados en grafo. Dado que los datos en cadena principalmente consisten en interacciones complejas entre usuarios y contratos inteligentes, es decir, un grafo, las GNNs parecen una opción lógica para respaldar casos de uso de IA en cadena.
Proyectos comoPOND y RPS están tratando de construir modelos fundamentales para web3, potencialmente transformadores en el trading, Defi e incluso casos de uso social como
Estos modelos dependerán bastante de soluciones de almacenamiento de datos comoEspacio y Tiempo,Subsquid,Covalent, yHyperlineen lo que también soy bastante optimista.
GNNs podrían demostrar que los LLMs de las cadenas de bloques y los almacenes de datos web3 son habilitadores esenciales: proporcionando funcionalidad OLAP a web3.
En mi opinión, los agentes en la cadena de bloques pueden ser la clave para desbloquear la notoriamente mala experiencia de usuario de las criptomonedas, pero más importante aún, el lado de la demanda que falta para la utilización lamentable de los miles de millones de USD que hemos vertido en la infraestructura web3 en la última década.
No te equivoques, los agentes están llegando…
Y parece lógico que estos agentes aprovechen la infraestructura abierta y sin permisos, a través de pagos y computación componible, para lograr metas finales cada vez más complejas.
En la futura economía de la inteligencia en red, tal vez los flujos económicos sean mucho menos de B -> C y mucho más de usuario -> agente -> red de cómputo -> agente -> usuario.
Protocolos agentivosson el resultado final. Aplicaciones o negocios de servicios con gastos limitados que funcionan principalmente utilizando recursos on-chain para satisfacer las demandas de los usuarios finales (o entre sí) en redes componibles con costos mucho más bajos que las empresas tradicionales.
Al igual que con web2 donde la capa de aplicación capturó la mayor parte del valor, soy partidario de la tesis de los "protocolos agentes gordos" en DeAI. La captura de valor debería desplazarse hacia arriba en la pila con el tiempo.
El próximo Google, Facebook y Blackrock probablemente sean protocolos agentes y los componentes que los habiliten se están gestando en este momento.
La IA cambiará la forma de nuestras economías. Hoy en día, el mercado espera que la captura de valor resida dentro de los confines de unas pocas grandes corporaciones en el noroeste del Pacífico de los Estados Unidos. DeAI representa una visión diferente.
Una visión de redes abiertas y componibles de inteligencias con incentivos y remuneración incluso para pequeñas contribuciones y una mayor propiedad/gobierno colectivo.
Si bien ciertas narrativas en DeAI se adelantan a sí mismas, y muchos proyectos cotizan significativamente por encima de la tracción actual, el tamaño de la oportunidad es realmente grande. Para aquellos que son pacientes y exigentes, la visión final de DeAI de una computación verdaderamente componible puede ser la justificación misma de las propias cadenas de bloques.
Si disfrutaste de este adelanto, por favor estate atento a nuestros informes de larga duración que se desbloquearán en las próximas semanas a medida que se desarrolla el mes de Delphi AI x Crypto:
DeAI I: La Torre y La Plaza (desbloqueado ahora)
DeAI II: Aprovechando los Medios de Producción, Infra (desbloquear pronto)
DeAI III: Cómputo componible, Middleware (desbloquear la próxima semana)
DeAI IV: The Agentic Economy, Aplicaciones (desbloqueo dos semanas)
Va a ser un gran mes. Abróchate el cinturón.
Enviar el Título Original: DeAI Compressed
Dado que las criptomonedas son esencialmente software de código abierto con incentivos financieros incorporados, y la IA está interrumpiendo la forma en que se escribe el software, es lógico pensar que la IA tendrá un impacto masivo en el espacio de la cadena de bloques en todos sus niveles.
Para mí, los mayores desafíos que enfrenta DeAI se encuentran en la capa de infraestructura dada la intensidad de capital necesaria para construir modelos fundamentales y los rendimientos a escala en datos y cálculos.
Dadas las leyes de escala, las Big Tech tienen una ventaja pronunciada: aprovechar sus enormes reservas de guerra de los beneficios del monopolio en la agregación de la demanda del consumidor durante la segunda generación de internet y reinvertirlas en la infraestructura en la nube durante una década de tasas artificialmente bajas, los hipereescaladores ahora intentan capturar el mercado de la inteligencia al acaparar los datos y la computación, los ingredientes clave para la IA:
Debido a la intensidad de capital y los altos requisitos de ancho de banda de grandes ejecuciones de capacitación, los supercúmulos unificados siguen siendo óptimos, proporcionando a las grandes empresas de tecnología los modelos más eficientes, de código cerrado, que planean alquilar con márgenes oligopólicos, reinvertiendo los ingresos en cada generación subsiguiente.
Sin embargo, los fosos en la IA han demostrado ser menos profundos que los efectos de red de web2, con modelos fronterizos líderes que se deprecian rápidamente en relación con el campo, especialmente con Meta adoptando una política de "tierra quemada" y comprometiéndose con decenas de miles de millones para modelos fronterizos de código abierto como Llama 3.1 con rendimiento de nivel SOTA.
Esto, junto coninvestigación emergenteen métodos de entrenamiento descentralizado de baja latencia, puede (parcialmente) mercantilizar modelos de negocios de vanguardia, desplazando (al menos en parte) la competencia de los superclusters de hardware (favoreciendo a las grandes tecnológicas) a la innovación de software (favoreciendo marginalmente al código abierto / cripto) a medida que cae el precio de la inteligencia.
Dada la eficiencia informática de las arquitecturas de "mezcla de expertos" y la síntesis/enrutamiento de LLM, parece probable que nos estemos dirigiendo no hacia un mundo de 3 a 5 mega modelos, sino hacia un tapiz de millones de modelos con diferentes compensaciones de costo/rendimiento. Una red de inteligencia entrelazada. Una mente colmena.
Esto se convierte en un gran problema de coordinación: el tipo para el cual las cadenas de bloques y los incentivos criptográficos deberían estar bien equipados para ayudar.
El software está devorando el mundo. La IA está devorando el software. Y la IA es básicamente solo datos y cálculos.
Cualquier cosa que pueda obtener de manera más eficiente los dos insumos anteriores (infraestructura), coordinarlos (middleware) y satisfacer las demandas del usuario (aplicaciones), será valiosa.
Delphi es alcista en varios componentes en toda la pila:
Dado que la IA se alimenta de datos y cálculos, la infraestructura de DeAI se dedica a obtener ambos de la manera más eficiente posible, generalmente utilizando incentivos criptográficos. Como mencionamos anteriormente, esta es la parte más desafiante de la cadena en la que competir, pero también potencialmente la más gratificante dada la magnitud de los mercados finales.
Si bien hasta ahora se ha visto frenado por la latencia, los protocolos de entrenamiento descentralizados y los mercados de GPU esperan orquestar hardware latente y heterogéneo para proporcionar cálculo bajo demanda a menor costo para aquellos que no pueden acceder a las soluciones integradas de las grandes empresas tecnológicas. Jugadores como Gensyn, Prime Intellect y Neuromesh están empujando los límites del entrenamiento distribuido mientrasio.net, Akash, Aethir, etc. están permitiendo inferencias de menor costo más cerca del borde.
En un mundo de inteligencia ubicua basada en modelos más pequeños y especializados, los activos de datos son cada vez más valiosos y monetizables.
Hasta la fecha, los DePIN (redes físicas descentralizadas) han sido ampliamente elogiados por su capacidad para construir redes de hardware de menor costo en comparación con los incumbentes intensivos en capital (por ejemplo, las compañías de telecomunicaciones). Sin embargo, potencialmente el mercado más grande de DePIN surgirá en la recopilación de conjuntos de datos novedosos que fluyen hacia las inteligencias en cadena:protocolos agentes (para discutir más adelante).
En un mundo donde el trabajo -¿la mayor TAM del mundo?- está siendo reemplazado por una combinación de datos y cálculos, la infraestructura de DeAI proporciona una forma para que los no Tech Barons puedanAprovechar los medios de producción y contribuir a la próxima economía en red.
El objetivo final de DeAI es un cálculo efectivamente componible. Al igual que los Lego del dinero DeFi, la IA descentralizada compensa la falta de rendimiento absoluto hoy en día con la componibilidad sin permisos, incentivando un ecosistema abierto de software y primitivas de cálculo que se van acumulando con el tiempo para (con suerte) superar a los actores existentes.
Si Google es "el extremo integrado", entonces DeAI representa el extremo "modular". ComoClayton Christensennos recuerda que los enfoques integrados tienden a liderar en las industrias de reciente aparición al reducir la fricción en la cadena de valor, pero a medida que el espacio madura, las cadenas de valor modularizadas ganan participación a través de una mayor competencia y eficiencia de costos en cada capa de la estructura:
Somos bastante optimistas sobre varias categorías esenciales para habilitar esta visión modular:
En un mundo de inteligencia fragmentada, ¿cómo se puede elegir el modelo adecuado y el momento adecuado al mejor precio posible? Los agregadores del lado de la demanda siempre han capturado valor (verteoría de la agregación) y la función de enrutamiento es esencial para optimizar la curva de Pareto entre rendimiento y costos en el mundo de la inteligencia en red:
Bittensor ha sido el líder aquí en la generación 1, pero están surgiendo una serie de competidores dedicados.
Alloraorganiza competencias entre diferentes modelos en varios 'temas' de una manera 'consciente del contexto' y que mejora con el tiempo, informando predicciones futuras basadas en la precisión histórica en condiciones específicas.
Morpheusbusca convertirse en el "enrutador del lado de la demanda" para casos de uso de web3, esencialmente una "inteligencia Apple" con un agente local de código abierto que tiene el contexto relevante del usuario y puede enrutar consultas de manera eficiente a través de DeFi o los bloques de construcción emergentes de la infraestructura de "cómputo componible" de web3.
Protocolos de interoperabilidad de agentes comoTheoriqy Autonolaspretende llevar el enrutamiento modular al extremo al permitir ecosistemas componibles y acumulativos de agentes o componentes flexibles en servicios completos en cadena.
En resumen, en un mundo de inteligencia que se fragmenta rápidamente, los agregadores de la oferta y la demanda jugarán un papel extremadamente poderoso. Si Google se convirtió en una empresa de US$2t indexando la información del mundo, entonces el ganador en los enrutadores del lado de la demanda, ya sea Apple o Google o una solución web3, que indexa inteligencia agentica, debería ser aún más grande.
Dada su descentralización, las cadenas de bloques están altamente limitadas tanto en datos como en capacidad de cálculo. ¿Cómo se pueden llevar las aplicaciones de inteligencia artificial intensivas en cálculo y datos que los usuarios demandarán a la cadena?
¡Co-procesadores!
Fuente:Florin Digital
Estos son efectivamente "oráculos" que ofrecen diferentes técnicas para "verificar" los datos subyacentes o el modelo que se utiliza de una manera que minimiza las nuevas suposiciones de confianza en cadena mientras ofrece aumentos sustanciales de capacidad. Hasta la fecha, ha habido una serie de proyectos que utilizan zkML, opML, TeeML y enfoques cripto económicos, todos con diferentes ventajas y desventajas:
Para una revisión más detallada, por favor consulte nuestro informe DeAI parte III que será publicado en las próximas semanas.
A un alto nivel, los coprocesadores son esenciales para hacer que los contratos inteligentes, bueno... sean inteligentes, proporcionando soluciones tipo "almacén de datos" para consultar experiencias en cadena más personalizadas o proporcionando verificación de que una inferencia determinada se completó correctamente.
Redes TEE comoSuper,Phala, yMarlinen particular han estado ganando popularidad recientemente dada su practicidad y disposición para alojar aplicaciones a escala hoy.
En general, los co-procesadores son esenciales para fusionar las cadenas de bloques altamente deterministas pero de bajo rendimiento con las inteligencias altamente performantes pero probabilísticas. Sin los co-procesadores, la IA no llegaría a esta generación de cadenas de bloques.
Uno de los mayores problemas del desarrollo de código abierto en la inteligencia artificial ha sido la falta de incentivos para hacerlo sostenible. El desarrollo de inteligencia artificial requiere una gran cantidad de capital, y el costo de oportunidad tanto del cálculo como del trabajo en conocimientos de IA es muy alto. Sin los incentivos adecuados para recompensar las contribuciones de código abierto, el espacio inevitablemente perderá frente a los hiper-capitalistas hipereescaladores.
Una gran cantidad de proyectos deSentientaPluralisaSahara aMiratodos tienen como objetivo iniciar redes que permitan y recompensen adecuadamente las contribuciones a las inteligencias en red de redes fragmentadas de individuos.
Al arreglar el modelo de negocio, la combinación del código abierto debería acelerarse, brindando a los desarrolladores e investigadores de IA una opción fuera de las grandes tecnológicas que sea global por naturaleza y, con suerte, también bien remunerada en función del valor creado.
Si bien es muy complicado hacerlo bien y cada vez más competitivo, el TAM aquí es enorme.
Donde los LLMs delinean patrones en grandes corpora de textos y aprenden a predecir la siguiente palabra, las Redes Neuronales Gráficas (GNNs) procesan, analizan y aprenden a partir de datos estructurados en grafo. Dado que los datos en cadena principalmente consisten en interacciones complejas entre usuarios y contratos inteligentes, es decir, un grafo, las GNNs parecen una opción lógica para respaldar casos de uso de IA en cadena.
Proyectos comoPOND y RPS están tratando de construir modelos fundamentales para web3, potencialmente transformadores en el trading, Defi e incluso casos de uso social como
Estos modelos dependerán bastante de soluciones de almacenamiento de datos comoEspacio y Tiempo,Subsquid,Covalent, yHyperlineen lo que también soy bastante optimista.
GNNs podrían demostrar que los LLMs de las cadenas de bloques y los almacenes de datos web3 son habilitadores esenciales: proporcionando funcionalidad OLAP a web3.
En mi opinión, los agentes en la cadena de bloques pueden ser la clave para desbloquear la notoriamente mala experiencia de usuario de las criptomonedas, pero más importante aún, el lado de la demanda que falta para la utilización lamentable de los miles de millones de USD que hemos vertido en la infraestructura web3 en la última década.
No te equivoques, los agentes están llegando…
Y parece lógico que estos agentes aprovechen la infraestructura abierta y sin permisos, a través de pagos y computación componible, para lograr metas finales cada vez más complejas.
En la futura economía de la inteligencia en red, tal vez los flujos económicos sean mucho menos de B -> C y mucho más de usuario -> agente -> red de cómputo -> agente -> usuario.
Protocolos agentivosson el resultado final. Aplicaciones o negocios de servicios con gastos limitados que funcionan principalmente utilizando recursos on-chain para satisfacer las demandas de los usuarios finales (o entre sí) en redes componibles con costos mucho más bajos que las empresas tradicionales.
Al igual que con web2 donde la capa de aplicación capturó la mayor parte del valor, soy partidario de la tesis de los "protocolos agentes gordos" en DeAI. La captura de valor debería desplazarse hacia arriba en la pila con el tiempo.
El próximo Google, Facebook y Blackrock probablemente sean protocolos agentes y los componentes que los habiliten se están gestando en este momento.
La IA cambiará la forma de nuestras economías. Hoy en día, el mercado espera que la captura de valor resida dentro de los confines de unas pocas grandes corporaciones en el noroeste del Pacífico de los Estados Unidos. DeAI representa una visión diferente.
Una visión de redes abiertas y componibles de inteligencias con incentivos y remuneración incluso para pequeñas contribuciones y una mayor propiedad/gobierno colectivo.
Si bien ciertas narrativas en DeAI se adelantan a sí mismas, y muchos proyectos cotizan significativamente por encima de la tracción actual, el tamaño de la oportunidad es realmente grande. Para aquellos que son pacientes y exigentes, la visión final de DeAI de una computación verdaderamente componible puede ser la justificación misma de las propias cadenas de bloques.
Si disfrutaste de este adelanto, por favor estate atento a nuestros informes de larga duración que se desbloquearán en las próximas semanas a medida que se desarrolla el mes de Delphi AI x Crypto:
DeAI I: La Torre y La Plaza (desbloqueado ahora)
DeAI II: Aprovechando los Medios de Producción, Infra (desbloquear pronto)
DeAI III: Cómputo componible, Middleware (desbloquear la próxima semana)
DeAI IV: The Agentic Economy, Aplicaciones (desbloqueo dos semanas)
Va a ser un gran mes. Abróchate el cinturón.