Sora emerge: ¿Será 2024 el año de la revolución IA+Web3?

Principiante2/29/2024, 2:39:27 PM
Además de Depin, ¿qué tipo de chispas puede encender el entrelazamiento de la Web3 y la IA? ¿Qué oportunidades se encuentran dentro de la pista de Sora? Este artículo también contempla las posibilidades de la Web3 en la era de la IA.

Prefacio

El 16 de febrero, OpenAI anunció su último modelo de difusión generativa de texto a video llamado "Sora", marcando otro hito en la IA generativa con su capacidad para producir videos de alta calidad en una amplia gama de tipos de datos visuales. A diferencia de las herramientas de generación de vídeo de IA como Pika, que generan unos segundos de vídeo a partir de múltiples imágenes, Sora entrena en el espacio latente comprimido de los vídeos y las imágenes, dividiéndolos en parches espacio-temporales para la generación de vídeo escalable. Además, el modelo demuestra la capacidad de simular tanto el mundo físico como el digital, y su demostración de 60 segundos se describe como un "simulador universal del mundo físico".

Sora continúa el camino técnico de "datos de origen-transformador-difusión-emergencia" visto en modelos GPT anteriores, lo que indica que su madurez de desarrollo también depende de la potencia computacional. Dado el mayor volumen de datos requerido para el entrenamiento de video en comparación con el texto, se espera que la demanda de potencia computacional aumente aún más. Sin embargo, como se discutió en nuestro artículo anterior "Vista previa del sector prometedor: el mercado de potencia informática descentralizada", se ha explorado la importancia de la potencia computacional en la era de la IA y, con la creciente popularidad de la IA, han surgido numerosos proyectos de potencia computacional, que benefician a otros proyectos de Depin (almacenamiento, potencia computacional, etc.) con un aumento de valor. Más allá de Depin, este artículo tiene como objetivo actualizar y completar las discusiones pasadas, reflexionando sobre las chispas que podrían surgir del entrelazamiento de Web3 e IA y las oportunidades dentro de esta trayectoria en la era de la IA.

El desarrollo de la IA: tres grandes direcciones

La Inteligencia Artificial (IA) es un campo floreciente centrado en emular, ampliar y enriquecer la inteligencia humana. Desde su creación en las décadas de 1950 y 1960, la IA ha experimentado más de medio siglo de evolución, emergiendo como una tecnología fundamental que impulsa la transformación social y diversas industrias. A lo largo de este viaje, el progreso entrelazado de tres direcciones de investigación principales (simbolismo, conexionismo y conductismo) ha sentado las bases para el rápido avance de la IA en la actualidad.

Simbolismo

El simbolismo, también conocido como logicismo o razonamiento basado en reglas, postula que es factible replicar la inteligencia humana a través del procesamiento de símbolos. Este enfoque utiliza símbolos para representar y manipular objetos, conceptos y sus relaciones dentro de un dominio de problema determinado, empleando el razonamiento lógico para resolver problemas. El simbolismo ha logrado un éxito notable, particularmente en los sistemas expertos y la representación del conocimiento. Su principio central es que el comportamiento inteligente se puede realizar a través de la manipulación de símbolos y la inferencia lógica, con símbolos que sirven como abstracciones de alto nivel del mundo real.

Conexionismo

El conexionismo, también conocido como el enfoque de la red neuronal, busca alcanzar la inteligencia reflejando la estructura y funcionalidad del cerebro humano. Esta metodología construye redes que comprenden numerosas unidades de procesamiento simples similares a las neuronas y ajusta las fuerzas de conexión entre estas unidades, similares a las sinapsis, para facilitar el aprendizaje. Al enfatizar el aprendizaje y la generalización a partir de datos, el conexionismo es adecuado para tareas como el reconocimiento de patrones, la clasificación y el mapeo continuo de entrada-salida. El aprendizaje profundo, una evolución del conexionismo, ha logrado avances en dominios como el reconocimiento de imágenes y voz, así como en el procesamiento del lenguaje natural.

Conductismo

El conductismo, estrechamente ligado a la robótica biomimética y a la investigación de sistemas inteligentes autónomos, subraya que los agentes inteligentes pueden aprender a través de la interacción ambiental. A diferencia de los enfoques anteriores, el conductismo no se centra en simular representaciones internas o procesos cognitivos, sino que logra un comportamiento adaptativo a través del ciclo percepción-acción. Postula que la inteligencia se manifiesta a través de la interacción y el aprendizaje dinámicos del entorno, lo que la hace especialmente efectiva para robots móviles y sistemas de control adaptativo que operan en entornos complejos e impredecibles.

A pesar de sus disparidades fundamentales, estas tres direcciones de investigación pueden sinergizarse y complementarse entre sí en la investigación y las aplicaciones prácticas de la IA, impulsando colectivamente el desarrollo del campo.

Los principios de AIGC

El floreciente campo de los contenidos generados por la Inteligencia Artificial (AIGC) representa una evolución y aplicación del conexionismo, facilitando la generación de contenidos novedosos emulando la creatividad humana. Estos modelos se entrenan utilizando grandes conjuntos de datos y algoritmos de aprendizaje profundo para discernir estructuras, relaciones y patrones subyacentes dentro de los datos. Impulsados por la entrada del usuario, producen diversos resultados que incluyen imágenes, videos, código, música, diseños, traducciones, respuestas a preguntas y texto. En la actualidad, AIGC se compone fundamentalmente de tres elementos: Deep Learning (DL), Big Data y Massive Computational Power.

Aprendizaje profundo

El aprendizaje profundo, un subconjunto del aprendizaje automático (ML), emplea algoritmos modelados a partir de las redes neuronales del cerebro humano. Al igual que el cerebro humano está formado por neuronas interconectadas que procesan información, las redes neuronales de aprendizaje profundo consisten en múltiples capas de neuronas artificiales que realizan cálculos dentro de un ordenador. Estas neuronas artificiales, o nodos, aprovechan las operaciones matemáticas para procesar datos y resolver problemas complejos a través de algoritmos de aprendizaje profundo.

Las redes neuronales constan de capas: entrada, oculta y salida, con parámetros que vinculan estas capas.

· Capa de entrada: La primera capa de la red neuronal recibe datos de entrada externos. Cada neurona dentro de esta capa corresponde a una entidad de los datos de entrada. Por ejemplo, en el procesamiento de datos de imágenes, las neuronas individuales pueden representar valores de píxel.

· Capas ocultas: Después de la capa de entrada, las capas ocultas procesan y transmiten datos a través de la red. Estas capas analizan la información en varios niveles, adaptando su comportamiento a medida que reciben nueva información. Las redes de aprendizaje profundo pueden tener cientos de capas ocultas, lo que permite el análisis multifacético de problemas. Por ejemplo, al clasificar un animal desconocido a partir de una imagen, la red puede compararlo con animales conocidos evaluando características como la forma de las orejas, el recuento de patas y el tamaño de las pupilas. Las capas ocultas funcionan de manera similar, cada una procesa diferentes características de animales para ayudar a una clasificación precisa.

· Capa de salida: La capa final de la red neuronal, produce la salida de la red. Las neuronas dentro de esta capa representan categorías o valores de salida potenciales. En las tareas de clasificación, cada neurona puede corresponder a una categoría, mientras que en las tareas de regresión, la capa de salida puede presentar una sola neurona cuyo valor predice el resultado.

· Parámetros: En las redes neuronales, las conexiones entre diferentes capas se representan mediante ponderaciones y sesgos, que se optimizan durante el proceso de entrenamiento para permitir que la red reconozca con precisión patrones en los datos y haga predicciones. El aumento de los parámetros puede mejorar la capacidad del modelo de la red neuronal, es decir, la capacidad de aprender y representar patrones complejos en los datos. Sin embargo, esto también aumenta la demanda de potencia computacional.

Macrodatos

El entrenamiento eficaz de redes neuronales suele requerir datos extensos, diversos, de alta calidad y de múltiples fuentes. Estos datos constituyen la piedra angular para entrenar y validar modelos de aprendizaje automático. A través del análisis de big data, los modelos de aprendizaje automático pueden identificar patrones y relaciones dentro de los datos, facilitando las predicciones o clasificaciones.

Potencia computacional masiva

La intrincada estructura multicapa de las redes neuronales, los numerosos parámetros, los requisitos para el procesamiento de big data, los métodos de entrenamiento iterativos (que implican cálculos repetidos de propagación hacia adelante y hacia atrás, incluidos los cálculos de funciones de activación y pérdida, los cálculos de gradiente y las actualizaciones de peso), las necesidades informáticas de alta precisión, las capacidades de computación paralela, las técnicas de optimización y regularización, y los procesos de evaluación y validación de modelos contribuyen colectivamente a una demandas computacionales.

Sora

Sora, el último modelo de IA de generación de vídeo de OpenAI, supone un avance sustancial en la capacidad de la inteligencia artificial para procesar y comprender diversos datos visuales. Mediante el empleo de redes de compresión de video y técnicas de parches espaciotemporales, Sora puede convertir grandes cantidades de datos visuales capturados en todo el mundo y desde varios dispositivos en una representación unificada. Esta capacidad permite el procesamiento y la comprensión eficientes de contenido visual intrincado. Sora utiliza modelos de difusión condicionados por texto para generar videos o imágenes altamente correlacionados con indicaciones de texto, mostrando una creatividad y adaptabilidad notables.

A pesar de los avances de Sora en la generación de video y la simulación de interacciones en el mundo real, encuentra ciertas limitaciones. Estos incluyen la precisión de las simulaciones del mundo físico, la consistencia en la generación de videos largos, la comprensión de instrucciones de texto complejas y la eficiencia en el entrenamiento y la generación. Esencialmente, Sora sigue la trayectoria técnica de "big data-Transformer-Difusión-emergencia", facilitada por el poder computacional monopolístico de OpenAI y la ventaja de ser el primero en moverse, lo que resulta en una forma de estética de fuerza bruta. Sin embargo, otras empresas de IA todavía poseen el potencial de superar a Sora a través de la innovación tecnológica.

Si bien la conexión de Sora con blockchain sigue siendo modesta, se anticipa que en los próximos uno o dos años, la influencia de Sora conducirá a la aparición y el rápido desarrollo de otras herramientas de generación de IA de alta calidad. Se espera que estos desarrollos afecten a varios sectores de Web3 como GameFi, plataformas sociales, plataformas creativas, Depin, etc. En consecuencia, adquirir una comprensión general de Sora es esencial, y contemplar cómo la IA se integrará eficazmente con la Web3 en el futuro se convierte en una consideración crucial.

Las cuatro vías de la integración de la IA x Web3

Como se ha comentado anteriormente, los componentes fundamentales esenciales para la IA generativa se pueden resumir en tres elementos principales: algoritmos, datos y potencia de cálculo. Por el contrario, la IA, al ser una herramienta universal con efectos de gran alcance en los métodos de producción, revoluciona la forma en que operan las industrias. Mientras tanto, los impactos significativos de la tecnología blockchain son dobles: reestructura las relaciones de producción y permite la descentralización. Así, la convergencia de estas dos tecnologías puede dar lugar a cuatro posibles vías:

Potencia de cómputo descentralizada

Esta sección tiene como objetivo proporcionar información sobre el panorama actual de la potencia informática. En el ámbito de la IA, la potencia informática tiene una importancia inmensa. La demanda de potencia de cálculo en IA, especialmente destacada tras la aparición de Sora, ha alcanzado niveles sin precedentes. Durante el Foro Económico Mundial de Davos, Suiza, en 2024, el CEO de OpenAI, Sam Altman, hizo hincapié en que la potencia de cálculo y la energía son actualmente las principales limitaciones, insinuando su futura equivalencia con la moneda. Posteriormente, el 10 de febrero, Sam Altman anunció un plan innovador a través de Twitter para recaudar la asombrosa cantidad de 7 billones de dólares (equivalente al 40% del PIB de China en 2023) para revolucionar la industria mundial de semiconductores, con el objetivo de establecer un imperio de semiconductores. Anteriormente, mis consideraciones sobre el poder de cómputo se limitaban a las restricciones nacionales y los monopolios corporativos; Sin embargo, la noción de una sola entidad que aspira a dominar el sector mundial de los semiconductores es realmente notable.

La importancia de la potencia informática descentralizada es evidente. Las características de Blockchain ofrecen soluciones a los problemas prevalentes de monopolización en la potencia de cómputo y los costos exorbitantes asociados con la adquisición de GPU especializadas. Desde la perspectiva de los requisitos de la IA, la utilización de la potencia informática se puede clasificar en dos aspectos: inferencia y entrenamiento. Los proyectos centrados principalmente en la formación son escasos debido a la compleja integración que requieren las redes descentralizadas y a las importantes demandas de hardware, lo que plantea importantes obstáculos para su ejecución. Por el contrario, las tareas de inferencia son relativamente más simples, con diseños de red descentralizados menos intrincados y requisitos de hardware y ancho de banda más bajos, lo que representa una vía más accesible.

El panorama de la potencia informática centralizada tiene un gran potencial, a menudo asociado con el descriptor de "nivel de billón", y sigue siendo un tema muy sensacionalista en la era de la IA. Sin embargo, al observar la multitud de proyectos recientes, muchos parecen ser esfuerzos concebidos apresuradamente con el objetivo de capitalizar las tendencias. Si bien estos proyectos a menudo defienden la descentralización, tienden a eludir las discusiones sobre las ineficiencias de las redes descentralizadas. Además, existe un notable grado de uniformidad en el diseño, con numerosos proyectos que adoptan enfoques similares (como el diseño de minería L2 más un solo clic), lo que puede conducir al fracaso y complicar los esfuerzos para diferenciarse de la carrera tradicional de la IA.

Sistema de colaboración de algoritmos y modelos

Los algoritmos de aprendizaje automático están diseñados para aprender patrones y reglas a partir de los datos, lo que les permite hacer predicciones o tomar decisiones basadas en estos patrones aprendidos. Debido a la complejidad que implica su diseño y optimización, los algoritmos son inherentemente intensivos en tecnología, lo que requiere una profunda experiencia e innovación tecnológica. Sirven como columna vertebral de los modelos de IA de entrenamiento, dictando cómo se procesan los datos para obtener información útil o tomar decisiones. Los algoritmos de IA generativa notables, como las redes generativas adversarias (GAN), los autocodificadores variacionales (VAE) y los transformadores, están diseñados para dominios específicos como la pintura, el reconocimiento de idiomas, la traducción o la generación de vídeos, y son fundamentales para entrenar modelos de IA especializados.

La plétora de algoritmos y modelos con distintas fortalezas plantea la pregunta: ¿pueden integrarse en un modelo versátil? Bittensor, un proyecto recientemente destacado, encabeza los esfuerzos en esta dirección al incentivar la colaboración entre varios modelos y algoritmos de IA, fomentando así el desarrollo de modelos de IA más eficientes y capaces. Otras iniciativas, como Commune AI, se centran en fomentar la colaboración de código, aunque el intercambio de algoritmos y modelos sigue siendo un desafío debido a su naturaleza patentada dentro de las empresas de IA.

El concepto de un ecosistema colaborativo de IA es intrigante, ya que aprovecha la tecnología blockchain para mitigar los inconvenientes asociados con los algoritmos de IA aislados. Sin embargo, aún no se ha determinado su capacidad para generar el valor correspondiente. Las empresas de IA establecidas, equipadas con algoritmos y modelos patentados, poseen sólidas capacidades para actualizar, iterar e integrar sus tecnologías. Por ejemplo, OpenAI ha progresado rápidamente desde los primeros modelos de generación de texto hasta los modelos generativos multidominio en un lapso de dos años. Es posible que proyectos como Bittensor deban explorar vías innovadoras en sus dominios objetivo para competir de manera efectiva.

Big Data descentralizado

Desde un punto de vista simplista, la integración de datos privados para alimentar la IA y la anotación de datos son vías que armonizan bien con la tecnología blockchain. Las principales preocupaciones giran en torno a cómo frustrar los datos basura y las actividades maliciosas. Además, el almacenamiento de datos puede ser ventajoso para proyectos de Depin como FIL y AR.

Mirándolo desde un ángulo más intrincado, aprovechar los datos de blockchain para el aprendizaje automático (ML) para abordar la accesibilidad de los datos de blockchain presenta otra dirección convincente, como lo exploró Giza.

En teoría, los datos de la cadena de bloques son accesibles en cualquier momento y reflejan el estado de toda la cadena de bloques. Sin embargo, para aquellos que están fuera del ecosistema blockchain, acceder a estos extensos conjuntos de datos no es sencillo. Almacenar una cadena de bloques completa requiere una experiencia sustancial y recursos de hardware especializados.

Para superar los desafíos de acceder a los datos de blockchain, la industria ha sido testigo de la aparición de varias soluciones. Por ejemplo, los proveedores de RPC ofrecen acceso a los nodos a través de API, mientras que los servicios de indexación facilitan la recuperación de datos a través de SQL y GraphQL, desempeñando un papel fundamental en la mitigación del problema. Sin embargo, estos métodos tienen sus limitaciones. Los servicios RPC son inadecuados para casos de uso de alta densidad que requieren consultas de datos extensas y, a menudo, no satisfacen la demanda. Mientras tanto, aunque los servicios de indexación ofrecen un enfoque más estructurado para la recuperación de datos, la complejidad de los protocolos Web3 hace que la construcción de consultas eficientes sea extremadamente difícil, lo que a veces requiere cientos o incluso miles de líneas de código complejo. Esta complejidad supone un obstáculo importante para los profesionales de los datos en general y para aquellos con una comprensión limitada de las complejidades de la Web3. El impacto colectivo de estas limitaciones subraya la necesidad de un método más accesible y utilizable para obtener y aprovechar los datos de la cadena de bloques, lo que podría estimular una aplicación e innovación más amplias en el campo.

Por lo tanto, la fusión de ZKML (Zero-Knowledge Proof Machine Learning, que alivia la carga del aprendizaje automático en la cadena) con datos de blockchain de alta calidad podría producir conjuntos de datos que aborden los desafíos de accesibilidad de los datos de blockchain. La IA tiene el potencial de reducir significativamente las barreras para acceder a los datos de la cadena de bloques. Con el tiempo, los desarrolladores, investigadores y entusiastas del aprendizaje automático podrían obtener acceso a conjuntos de datos relevantes y de mayor calidad para crear soluciones efectivas e innovadoras.

Empoderamiento de la IA para las Dapps

Desde la explosión de ChatGPT3 en 2023, el empoderamiento de la IA para las Dapps se ha convertido en una dirección muy común. La IA generativa, ampliamente aplicable, puede integrarse a través de API, simplificando e inteligentemente las plataformas de datos, los bots comerciales, las enciclopedias blockchain y otras aplicaciones. También puede funcionar como chatbots (como Myshell) o compañeros de IA (como Sleepless AI), e incluso crear NPC en juegos de blockchain utilizando IA generativa. Sin embargo, debido a las bajas barreras técnicas, la mayoría de las implementaciones son meros ajustes después de integrar una API, y la integración con los propios proyectos suele ser imperfecta, por lo que rara vez se menciona.

Con la llegada de Sora, personalmente creo que el empoderamiento de la IA para GameFi (incluido el metaverso) y las plataformas creativas será el enfoque principal en el futuro. Dada la naturaleza ascendente del campo de la Web3, es improbable producir productos que puedan competir directamente con los juegos tradicionales o las empresas creativas. Sin embargo, la aparición de Sora tiene el potencial de romper este punto muerto, posiblemente en solo dos o tres años. A partir de la demo de Sora, parece capaz de competir con compañías de microdramas. Además, la cultura comunitaria activa de Web3 puede fomentar una plétora de ideas interesantes. Cuando el único límite es la imaginación, las barreras entre la industria de abajo hacia arriba y la industria tradicional de arriba hacia abajo se desmoronarán.

Conclusión

A medida que las herramientas de IA generativa continúan avanzando, estamos preparados para experimentar más "momentos iPhone" transformadores en el futuro. A pesar del escepticismo inicial en torno a la integración de la IA con la Web3, estoy seguro de que las trayectorias actuales van por buen camino, aunque con tres puntos débiles principales que requieren atención: necesidad, eficiencia y compatibilidad. Si bien la convergencia de estos dominios sigue siendo exploratoria, no debería disuadirnos de imaginar su adopción generalizada en el próximo mercado alcista.

Mantener una mentalidad de curiosidad y receptividad a las nuevas ideas es crucial. Los precedentes históricos, como la rápida transición de los carruajes tirados por caballos a los automóviles y la evolución de las inscripciones en NFT anteriores, subrayan la importancia de evitar los sesgos excesivos, que a menudo dan lugar a la pérdida de oportunidades.

Renuncia:

  1. Este artículo es una reimpresión de [Deep Tide], Todos los derechos de autor pertenecen al autor original [YBB Capital Zeke]. Si hay objeciones a esta reimpresión, comuníquese con el equipo de Gate Learn y ellos lo manejarán de inmediato.
  2. Descargo de responsabilidad: Los puntos de vista y opiniones expresados en este artículo son únicamente los del autor y no constituyen ningún consejo de inversión.
  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. A menos que se mencione, está prohibido copiar, distribuir o plagiar los artículos traducidos.

Sora emerge: ¿Será 2024 el año de la revolución IA+Web3?

Principiante2/29/2024, 2:39:27 PM
Además de Depin, ¿qué tipo de chispas puede encender el entrelazamiento de la Web3 y la IA? ¿Qué oportunidades se encuentran dentro de la pista de Sora? Este artículo también contempla las posibilidades de la Web3 en la era de la IA.

Prefacio

El 16 de febrero, OpenAI anunció su último modelo de difusión generativa de texto a video llamado "Sora", marcando otro hito en la IA generativa con su capacidad para producir videos de alta calidad en una amplia gama de tipos de datos visuales. A diferencia de las herramientas de generación de vídeo de IA como Pika, que generan unos segundos de vídeo a partir de múltiples imágenes, Sora entrena en el espacio latente comprimido de los vídeos y las imágenes, dividiéndolos en parches espacio-temporales para la generación de vídeo escalable. Además, el modelo demuestra la capacidad de simular tanto el mundo físico como el digital, y su demostración de 60 segundos se describe como un "simulador universal del mundo físico".

Sora continúa el camino técnico de "datos de origen-transformador-difusión-emergencia" visto en modelos GPT anteriores, lo que indica que su madurez de desarrollo también depende de la potencia computacional. Dado el mayor volumen de datos requerido para el entrenamiento de video en comparación con el texto, se espera que la demanda de potencia computacional aumente aún más. Sin embargo, como se discutió en nuestro artículo anterior "Vista previa del sector prometedor: el mercado de potencia informática descentralizada", se ha explorado la importancia de la potencia computacional en la era de la IA y, con la creciente popularidad de la IA, han surgido numerosos proyectos de potencia computacional, que benefician a otros proyectos de Depin (almacenamiento, potencia computacional, etc.) con un aumento de valor. Más allá de Depin, este artículo tiene como objetivo actualizar y completar las discusiones pasadas, reflexionando sobre las chispas que podrían surgir del entrelazamiento de Web3 e IA y las oportunidades dentro de esta trayectoria en la era de la IA.

El desarrollo de la IA: tres grandes direcciones

La Inteligencia Artificial (IA) es un campo floreciente centrado en emular, ampliar y enriquecer la inteligencia humana. Desde su creación en las décadas de 1950 y 1960, la IA ha experimentado más de medio siglo de evolución, emergiendo como una tecnología fundamental que impulsa la transformación social y diversas industrias. A lo largo de este viaje, el progreso entrelazado de tres direcciones de investigación principales (simbolismo, conexionismo y conductismo) ha sentado las bases para el rápido avance de la IA en la actualidad.

Simbolismo

El simbolismo, también conocido como logicismo o razonamiento basado en reglas, postula que es factible replicar la inteligencia humana a través del procesamiento de símbolos. Este enfoque utiliza símbolos para representar y manipular objetos, conceptos y sus relaciones dentro de un dominio de problema determinado, empleando el razonamiento lógico para resolver problemas. El simbolismo ha logrado un éxito notable, particularmente en los sistemas expertos y la representación del conocimiento. Su principio central es que el comportamiento inteligente se puede realizar a través de la manipulación de símbolos y la inferencia lógica, con símbolos que sirven como abstracciones de alto nivel del mundo real.

Conexionismo

El conexionismo, también conocido como el enfoque de la red neuronal, busca alcanzar la inteligencia reflejando la estructura y funcionalidad del cerebro humano. Esta metodología construye redes que comprenden numerosas unidades de procesamiento simples similares a las neuronas y ajusta las fuerzas de conexión entre estas unidades, similares a las sinapsis, para facilitar el aprendizaje. Al enfatizar el aprendizaje y la generalización a partir de datos, el conexionismo es adecuado para tareas como el reconocimiento de patrones, la clasificación y el mapeo continuo de entrada-salida. El aprendizaje profundo, una evolución del conexionismo, ha logrado avances en dominios como el reconocimiento de imágenes y voz, así como en el procesamiento del lenguaje natural.

Conductismo

El conductismo, estrechamente ligado a la robótica biomimética y a la investigación de sistemas inteligentes autónomos, subraya que los agentes inteligentes pueden aprender a través de la interacción ambiental. A diferencia de los enfoques anteriores, el conductismo no se centra en simular representaciones internas o procesos cognitivos, sino que logra un comportamiento adaptativo a través del ciclo percepción-acción. Postula que la inteligencia se manifiesta a través de la interacción y el aprendizaje dinámicos del entorno, lo que la hace especialmente efectiva para robots móviles y sistemas de control adaptativo que operan en entornos complejos e impredecibles.

A pesar de sus disparidades fundamentales, estas tres direcciones de investigación pueden sinergizarse y complementarse entre sí en la investigación y las aplicaciones prácticas de la IA, impulsando colectivamente el desarrollo del campo.

Los principios de AIGC

El floreciente campo de los contenidos generados por la Inteligencia Artificial (AIGC) representa una evolución y aplicación del conexionismo, facilitando la generación de contenidos novedosos emulando la creatividad humana. Estos modelos se entrenan utilizando grandes conjuntos de datos y algoritmos de aprendizaje profundo para discernir estructuras, relaciones y patrones subyacentes dentro de los datos. Impulsados por la entrada del usuario, producen diversos resultados que incluyen imágenes, videos, código, música, diseños, traducciones, respuestas a preguntas y texto. En la actualidad, AIGC se compone fundamentalmente de tres elementos: Deep Learning (DL), Big Data y Massive Computational Power.

Aprendizaje profundo

El aprendizaje profundo, un subconjunto del aprendizaje automático (ML), emplea algoritmos modelados a partir de las redes neuronales del cerebro humano. Al igual que el cerebro humano está formado por neuronas interconectadas que procesan información, las redes neuronales de aprendizaje profundo consisten en múltiples capas de neuronas artificiales que realizan cálculos dentro de un ordenador. Estas neuronas artificiales, o nodos, aprovechan las operaciones matemáticas para procesar datos y resolver problemas complejos a través de algoritmos de aprendizaje profundo.

Las redes neuronales constan de capas: entrada, oculta y salida, con parámetros que vinculan estas capas.

· Capa de entrada: La primera capa de la red neuronal recibe datos de entrada externos. Cada neurona dentro de esta capa corresponde a una entidad de los datos de entrada. Por ejemplo, en el procesamiento de datos de imágenes, las neuronas individuales pueden representar valores de píxel.

· Capas ocultas: Después de la capa de entrada, las capas ocultas procesan y transmiten datos a través de la red. Estas capas analizan la información en varios niveles, adaptando su comportamiento a medida que reciben nueva información. Las redes de aprendizaje profundo pueden tener cientos de capas ocultas, lo que permite el análisis multifacético de problemas. Por ejemplo, al clasificar un animal desconocido a partir de una imagen, la red puede compararlo con animales conocidos evaluando características como la forma de las orejas, el recuento de patas y el tamaño de las pupilas. Las capas ocultas funcionan de manera similar, cada una procesa diferentes características de animales para ayudar a una clasificación precisa.

· Capa de salida: La capa final de la red neuronal, produce la salida de la red. Las neuronas dentro de esta capa representan categorías o valores de salida potenciales. En las tareas de clasificación, cada neurona puede corresponder a una categoría, mientras que en las tareas de regresión, la capa de salida puede presentar una sola neurona cuyo valor predice el resultado.

· Parámetros: En las redes neuronales, las conexiones entre diferentes capas se representan mediante ponderaciones y sesgos, que se optimizan durante el proceso de entrenamiento para permitir que la red reconozca con precisión patrones en los datos y haga predicciones. El aumento de los parámetros puede mejorar la capacidad del modelo de la red neuronal, es decir, la capacidad de aprender y representar patrones complejos en los datos. Sin embargo, esto también aumenta la demanda de potencia computacional.

Macrodatos

El entrenamiento eficaz de redes neuronales suele requerir datos extensos, diversos, de alta calidad y de múltiples fuentes. Estos datos constituyen la piedra angular para entrenar y validar modelos de aprendizaje automático. A través del análisis de big data, los modelos de aprendizaje automático pueden identificar patrones y relaciones dentro de los datos, facilitando las predicciones o clasificaciones.

Potencia computacional masiva

La intrincada estructura multicapa de las redes neuronales, los numerosos parámetros, los requisitos para el procesamiento de big data, los métodos de entrenamiento iterativos (que implican cálculos repetidos de propagación hacia adelante y hacia atrás, incluidos los cálculos de funciones de activación y pérdida, los cálculos de gradiente y las actualizaciones de peso), las necesidades informáticas de alta precisión, las capacidades de computación paralela, las técnicas de optimización y regularización, y los procesos de evaluación y validación de modelos contribuyen colectivamente a una demandas computacionales.

Sora

Sora, el último modelo de IA de generación de vídeo de OpenAI, supone un avance sustancial en la capacidad de la inteligencia artificial para procesar y comprender diversos datos visuales. Mediante el empleo de redes de compresión de video y técnicas de parches espaciotemporales, Sora puede convertir grandes cantidades de datos visuales capturados en todo el mundo y desde varios dispositivos en una representación unificada. Esta capacidad permite el procesamiento y la comprensión eficientes de contenido visual intrincado. Sora utiliza modelos de difusión condicionados por texto para generar videos o imágenes altamente correlacionados con indicaciones de texto, mostrando una creatividad y adaptabilidad notables.

A pesar de los avances de Sora en la generación de video y la simulación de interacciones en el mundo real, encuentra ciertas limitaciones. Estos incluyen la precisión de las simulaciones del mundo físico, la consistencia en la generación de videos largos, la comprensión de instrucciones de texto complejas y la eficiencia en el entrenamiento y la generación. Esencialmente, Sora sigue la trayectoria técnica de "big data-Transformer-Difusión-emergencia", facilitada por el poder computacional monopolístico de OpenAI y la ventaja de ser el primero en moverse, lo que resulta en una forma de estética de fuerza bruta. Sin embargo, otras empresas de IA todavía poseen el potencial de superar a Sora a través de la innovación tecnológica.

Si bien la conexión de Sora con blockchain sigue siendo modesta, se anticipa que en los próximos uno o dos años, la influencia de Sora conducirá a la aparición y el rápido desarrollo de otras herramientas de generación de IA de alta calidad. Se espera que estos desarrollos afecten a varios sectores de Web3 como GameFi, plataformas sociales, plataformas creativas, Depin, etc. En consecuencia, adquirir una comprensión general de Sora es esencial, y contemplar cómo la IA se integrará eficazmente con la Web3 en el futuro se convierte en una consideración crucial.

Las cuatro vías de la integración de la IA x Web3

Como se ha comentado anteriormente, los componentes fundamentales esenciales para la IA generativa se pueden resumir en tres elementos principales: algoritmos, datos y potencia de cálculo. Por el contrario, la IA, al ser una herramienta universal con efectos de gran alcance en los métodos de producción, revoluciona la forma en que operan las industrias. Mientras tanto, los impactos significativos de la tecnología blockchain son dobles: reestructura las relaciones de producción y permite la descentralización. Así, la convergencia de estas dos tecnologías puede dar lugar a cuatro posibles vías:

Potencia de cómputo descentralizada

Esta sección tiene como objetivo proporcionar información sobre el panorama actual de la potencia informática. En el ámbito de la IA, la potencia informática tiene una importancia inmensa. La demanda de potencia de cálculo en IA, especialmente destacada tras la aparición de Sora, ha alcanzado niveles sin precedentes. Durante el Foro Económico Mundial de Davos, Suiza, en 2024, el CEO de OpenAI, Sam Altman, hizo hincapié en que la potencia de cálculo y la energía son actualmente las principales limitaciones, insinuando su futura equivalencia con la moneda. Posteriormente, el 10 de febrero, Sam Altman anunció un plan innovador a través de Twitter para recaudar la asombrosa cantidad de 7 billones de dólares (equivalente al 40% del PIB de China en 2023) para revolucionar la industria mundial de semiconductores, con el objetivo de establecer un imperio de semiconductores. Anteriormente, mis consideraciones sobre el poder de cómputo se limitaban a las restricciones nacionales y los monopolios corporativos; Sin embargo, la noción de una sola entidad que aspira a dominar el sector mundial de los semiconductores es realmente notable.

La importancia de la potencia informática descentralizada es evidente. Las características de Blockchain ofrecen soluciones a los problemas prevalentes de monopolización en la potencia de cómputo y los costos exorbitantes asociados con la adquisición de GPU especializadas. Desde la perspectiva de los requisitos de la IA, la utilización de la potencia informática se puede clasificar en dos aspectos: inferencia y entrenamiento. Los proyectos centrados principalmente en la formación son escasos debido a la compleja integración que requieren las redes descentralizadas y a las importantes demandas de hardware, lo que plantea importantes obstáculos para su ejecución. Por el contrario, las tareas de inferencia son relativamente más simples, con diseños de red descentralizados menos intrincados y requisitos de hardware y ancho de banda más bajos, lo que representa una vía más accesible.

El panorama de la potencia informática centralizada tiene un gran potencial, a menudo asociado con el descriptor de "nivel de billón", y sigue siendo un tema muy sensacionalista en la era de la IA. Sin embargo, al observar la multitud de proyectos recientes, muchos parecen ser esfuerzos concebidos apresuradamente con el objetivo de capitalizar las tendencias. Si bien estos proyectos a menudo defienden la descentralización, tienden a eludir las discusiones sobre las ineficiencias de las redes descentralizadas. Además, existe un notable grado de uniformidad en el diseño, con numerosos proyectos que adoptan enfoques similares (como el diseño de minería L2 más un solo clic), lo que puede conducir al fracaso y complicar los esfuerzos para diferenciarse de la carrera tradicional de la IA.

Sistema de colaboración de algoritmos y modelos

Los algoritmos de aprendizaje automático están diseñados para aprender patrones y reglas a partir de los datos, lo que les permite hacer predicciones o tomar decisiones basadas en estos patrones aprendidos. Debido a la complejidad que implica su diseño y optimización, los algoritmos son inherentemente intensivos en tecnología, lo que requiere una profunda experiencia e innovación tecnológica. Sirven como columna vertebral de los modelos de IA de entrenamiento, dictando cómo se procesan los datos para obtener información útil o tomar decisiones. Los algoritmos de IA generativa notables, como las redes generativas adversarias (GAN), los autocodificadores variacionales (VAE) y los transformadores, están diseñados para dominios específicos como la pintura, el reconocimiento de idiomas, la traducción o la generación de vídeos, y son fundamentales para entrenar modelos de IA especializados.

La plétora de algoritmos y modelos con distintas fortalezas plantea la pregunta: ¿pueden integrarse en un modelo versátil? Bittensor, un proyecto recientemente destacado, encabeza los esfuerzos en esta dirección al incentivar la colaboración entre varios modelos y algoritmos de IA, fomentando así el desarrollo de modelos de IA más eficientes y capaces. Otras iniciativas, como Commune AI, se centran en fomentar la colaboración de código, aunque el intercambio de algoritmos y modelos sigue siendo un desafío debido a su naturaleza patentada dentro de las empresas de IA.

El concepto de un ecosistema colaborativo de IA es intrigante, ya que aprovecha la tecnología blockchain para mitigar los inconvenientes asociados con los algoritmos de IA aislados. Sin embargo, aún no se ha determinado su capacidad para generar el valor correspondiente. Las empresas de IA establecidas, equipadas con algoritmos y modelos patentados, poseen sólidas capacidades para actualizar, iterar e integrar sus tecnologías. Por ejemplo, OpenAI ha progresado rápidamente desde los primeros modelos de generación de texto hasta los modelos generativos multidominio en un lapso de dos años. Es posible que proyectos como Bittensor deban explorar vías innovadoras en sus dominios objetivo para competir de manera efectiva.

Big Data descentralizado

Desde un punto de vista simplista, la integración de datos privados para alimentar la IA y la anotación de datos son vías que armonizan bien con la tecnología blockchain. Las principales preocupaciones giran en torno a cómo frustrar los datos basura y las actividades maliciosas. Además, el almacenamiento de datos puede ser ventajoso para proyectos de Depin como FIL y AR.

Mirándolo desde un ángulo más intrincado, aprovechar los datos de blockchain para el aprendizaje automático (ML) para abordar la accesibilidad de los datos de blockchain presenta otra dirección convincente, como lo exploró Giza.

En teoría, los datos de la cadena de bloques son accesibles en cualquier momento y reflejan el estado de toda la cadena de bloques. Sin embargo, para aquellos que están fuera del ecosistema blockchain, acceder a estos extensos conjuntos de datos no es sencillo. Almacenar una cadena de bloques completa requiere una experiencia sustancial y recursos de hardware especializados.

Para superar los desafíos de acceder a los datos de blockchain, la industria ha sido testigo de la aparición de varias soluciones. Por ejemplo, los proveedores de RPC ofrecen acceso a los nodos a través de API, mientras que los servicios de indexación facilitan la recuperación de datos a través de SQL y GraphQL, desempeñando un papel fundamental en la mitigación del problema. Sin embargo, estos métodos tienen sus limitaciones. Los servicios RPC son inadecuados para casos de uso de alta densidad que requieren consultas de datos extensas y, a menudo, no satisfacen la demanda. Mientras tanto, aunque los servicios de indexación ofrecen un enfoque más estructurado para la recuperación de datos, la complejidad de los protocolos Web3 hace que la construcción de consultas eficientes sea extremadamente difícil, lo que a veces requiere cientos o incluso miles de líneas de código complejo. Esta complejidad supone un obstáculo importante para los profesionales de los datos en general y para aquellos con una comprensión limitada de las complejidades de la Web3. El impacto colectivo de estas limitaciones subraya la necesidad de un método más accesible y utilizable para obtener y aprovechar los datos de la cadena de bloques, lo que podría estimular una aplicación e innovación más amplias en el campo.

Por lo tanto, la fusión de ZKML (Zero-Knowledge Proof Machine Learning, que alivia la carga del aprendizaje automático en la cadena) con datos de blockchain de alta calidad podría producir conjuntos de datos que aborden los desafíos de accesibilidad de los datos de blockchain. La IA tiene el potencial de reducir significativamente las barreras para acceder a los datos de la cadena de bloques. Con el tiempo, los desarrolladores, investigadores y entusiastas del aprendizaje automático podrían obtener acceso a conjuntos de datos relevantes y de mayor calidad para crear soluciones efectivas e innovadoras.

Empoderamiento de la IA para las Dapps

Desde la explosión de ChatGPT3 en 2023, el empoderamiento de la IA para las Dapps se ha convertido en una dirección muy común. La IA generativa, ampliamente aplicable, puede integrarse a través de API, simplificando e inteligentemente las plataformas de datos, los bots comerciales, las enciclopedias blockchain y otras aplicaciones. También puede funcionar como chatbots (como Myshell) o compañeros de IA (como Sleepless AI), e incluso crear NPC en juegos de blockchain utilizando IA generativa. Sin embargo, debido a las bajas barreras técnicas, la mayoría de las implementaciones son meros ajustes después de integrar una API, y la integración con los propios proyectos suele ser imperfecta, por lo que rara vez se menciona.

Con la llegada de Sora, personalmente creo que el empoderamiento de la IA para GameFi (incluido el metaverso) y las plataformas creativas será el enfoque principal en el futuro. Dada la naturaleza ascendente del campo de la Web3, es improbable producir productos que puedan competir directamente con los juegos tradicionales o las empresas creativas. Sin embargo, la aparición de Sora tiene el potencial de romper este punto muerto, posiblemente en solo dos o tres años. A partir de la demo de Sora, parece capaz de competir con compañías de microdramas. Además, la cultura comunitaria activa de Web3 puede fomentar una plétora de ideas interesantes. Cuando el único límite es la imaginación, las barreras entre la industria de abajo hacia arriba y la industria tradicional de arriba hacia abajo se desmoronarán.

Conclusión

A medida que las herramientas de IA generativa continúan avanzando, estamos preparados para experimentar más "momentos iPhone" transformadores en el futuro. A pesar del escepticismo inicial en torno a la integración de la IA con la Web3, estoy seguro de que las trayectorias actuales van por buen camino, aunque con tres puntos débiles principales que requieren atención: necesidad, eficiencia y compatibilidad. Si bien la convergencia de estos dominios sigue siendo exploratoria, no debería disuadirnos de imaginar su adopción generalizada en el próximo mercado alcista.

Mantener una mentalidad de curiosidad y receptividad a las nuevas ideas es crucial. Los precedentes históricos, como la rápida transición de los carruajes tirados por caballos a los automóviles y la evolución de las inscripciones en NFT anteriores, subrayan la importancia de evitar los sesgos excesivos, que a menudo dan lugar a la pérdida de oportunidades.

Renuncia:

  1. Este artículo es una reimpresión de [Deep Tide], Todos los derechos de autor pertenecen al autor original [YBB Capital Zeke]. Si hay objeciones a esta reimpresión, comuníquese con el equipo de Gate Learn y ellos lo manejarán de inmediato.
  2. Descargo de responsabilidad: Los puntos de vista y opiniones expresados en este artículo son únicamente los del autor y no constituyen ningún consejo de inversión.
  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. A menos que se mencione, está prohibido copiar, distribuir o plagiar los artículos traducidos.
Mulai Sekarang
Daftar dan dapatkan Voucher
$100
!