“Uma obra de arte nunca está concluída, apenas abandonada.”
Todos estão falando sobre Agentes de IA, mas o que eles querem dizer não é a mesma coisa, o que leva a diferentes entendimentos de Agentes de IA de nossa perspectiva, do público e dos praticantes de IA.
Há muito tempo, eu escrevi queCripto é a ilusão da IA. Desde então, a combinação de Cripto e IA tem sido um caso de amor unilateral. Os praticantes de IA raramente mencionam Web3 ou blockchain, enquanto os entusiastas de Cripto estão profundamente enamorados da IA. Depois de testemunhar o fenômeno em que os frameworks de Agente de IA podem até ser tokenizados, é incerto se isso poderia realmente trazer os praticantes de IA para o nosso mundo.
AI é o agente de Cripto. Esta é a melhor anotação de uma perspectiva cripto para ver o atual boom de IA. O entusiasmo da Cripto pela IA é diferente de outras indústrias; esperamos especialmente integrar a emissão e operação de ativos financeiros com ela.
No seu âmago, o AI Agent tem pelo menos três fontes. A AGI (Inteligência Artificial Geral) da OpenAI considera isso um passo importante, transformando o termo em uma palavra da moda popular além dos círculos técnicos. No entanto, essencialmente, um Agente não é um conceito novo. Mesmo com o empoderamento da IA, é difícil dizer que é uma tendência tecnológica revolucionária.
A primeira fonte é o Agente de IA como visto pela OpenAI. Similar ao nível L3 na condução autónoma, um Agente de IA pode ser visto como possuindo certas capacidades avançadas de assistência, mas ainda não é capaz de substituir totalmente um humano.
Legenda da imagem: Fase AGI do planeamento da OpenAI
Fonte da imagem: https://www.bloomberg.com/
A segunda fonte é, como o nome sugere, o Agente de IA, que é um Agente potencializado por IA. O conceito de agência e mecanismos de delegação não é novo no campo da computação. No entanto, sob a visão da OpenAI, o Agente se tornará a fase L3 seguinte a formas de conversação (como ChatGPT) e formas de raciocínio (como vários bots). A característica chave desta fase é a capacidade de "realizar certos comportamentos autonomamente," ou, como o fundador da LangChain, Harrison Chase, define: "Um Agente de IA é um sistema que utiliza um LLM (Large Language Model) para tomar decisões de fluxo de controle em um programa." \
Aqui é onde se torna intrigante. Antes do surgimento dos LLMs, um Agente executava principalmente processos de automação definidos por humanos. Por exemplo, ao projetar um web scraper, os programadores definiriam um User-Agent para simular detalhes como a versão do navegador e o sistema operacional usados por usuários reais. Se um Agente de IA fosse empregado para imitar o comportamento humano com mais precisão, isso poderia levar à criação de um framework de web scraper baseado em Agente de IA, tornando o scraper "mais semelhante a humano."
Nessas transições, a introdução de Agentes de IA deve integrar-se com cenários existentes, pois campos completamente novos dificilmente existem. Mesmo as capacidades de conclusão de código e geração em ferramentas como Curosr e Github Copilot são apenas melhorias funcionais dentro do framework do LSP (Protocolo do Servidor de Linguagem), com inúmeros exemplos dessa evolução:
Para esclarecer, na interação humano-computador, a combinação da GUI do Web 1.0 e dos navegadores realmente permitiu que o público usasse computadores sem barreiras, representado pela combinação do Windows e do IE. As APIs se tornaram o padrão de abstração e transmissão de dados por trás da internet, e durante a era do Web 2.0, surgiram navegadores como o Chrome, com uma mudança para dispositivos móveis que alterou os hábitos de uso da internet das pessoas. Super aplicativos como o WeChat e plataformas Meta agora abrangem todos os aspectos da vida das pessoas.
A terceira fonte é o conceito de "Intenção" no espaço Cripto, o que levou ao aumento do interesse em torno de Agentes de IA. No entanto, observe que isso é aplicável apenas dentro da Cripto. Desde scripts do Bitcoin com funcionalidade limitada até contratos inteligentes do Ethereum, o próprio conceito de Agente tem sido amplamente utilizado. O subsequente surgimento de pontes entre cadeias, abstrações de cadeias, EOA (Contas de Propriedade Externa) para carteiras AA (Abstração de Contas) são extensões naturais desta linha de pensamento. Portanto, quando os Agentes de IA "invadem" a Cripto, não é surpreendente que naturalmente levem a cenários DeFi.
É aqui que surge a confusão em torno do conceito de Agente de IA. No contexto de Cripto, o que estamos realmente tentando alcançar é um Agente de “gerenciamento financeiro automatizado, geração de memes automatizada”. No entanto, de acordo com a definição da OpenAI, um cenário tão arriscado exigiria a implementação real de L4 ou L5. Enquanto isso, o público está experimentando a geração automática de código ou assistência de resumo e redação com IA, que não estão no mesmo nível dos objetivos que estamos buscando.
Uma vez que entendemos o que realmente queremos, podemos nos concentrar na lógica organizacional dos Agentes de IA. Os detalhes técnicos seguirão, já que o conceito de um Agente de IA é sobre remover as barreiras à adoção de tecnologia em grande escala, assim como os navegadores revolucionaram a indústria do PC pessoal. Nosso foco será em dois pontos: examinar os Agentes de IA a partir da perspectiva da interação humano-computador e entender as diferenças e conexões entre os Agentes de IA e os LLMs, que nos levarão à terceira parte: o que a combinação de Cripto e Agentes de IA deixará para trás.
Antes dos modelos de interação humano-computador conversacionais como o ChatGPT, as principais formas de interação humano-computador eram GUI (Graphical User Interface) e CLI (Command-Line Interface). A mentalidade da GUI evoluiu para várias formas específicas, como navegadores e aplicativos, enquanto a combinação de CLI e Shell viu mudanças mínimas.
Mas isso é apenas a "interface do usuário" da interação entre humanos e computadores. À medida que a Internet evoluiu, o aumento no volume e na variedade de dados levou a mais interações "nos bastidores" entre dados e entre aplicativos. Esses dois aspectos dependem um do outro - até mesmo uma simples ação de navegação na web requer, na verdade, sua colaboração.
Se a interação humana com navegadores e aplicativos é considerada o ponto de entrada do usuário, os links e transições entre APIs suportam a operação real da internet. Isso, de fato, também faz parte do Agente. Os usuários comuns não precisam entender termos como linhas de comando e APIs para alcançar seus objetivos.
O mesmo acontece com LLMs. Agora, os usuários podem ir ainda mais longe - não há mais necessidade de procurar. Todo o processo pode ser descrito nos seguintes passos:
Pode ser encontrado que neste processo, o maior desafio é o Google, porque os usuários não precisam abrir o mecanismo de busca, mas várias janelas de diálogo semelhantes ao GPT, e a entrada de tráfego está mudando silenciosamente. É por essa razão que algumas pessoas pensam que este LLM revoluciona a vida dos mecanismos de busca.
Então, qual é o papel do Agente de IA neste processo?
Em resumo, o AI Agent é uma extensão especializada do LLM.
Os atuais LLMs não são AGI (Inteligência Artificial Geral) e estão longe do organizador L5 imaginado pela OpenAI. Suas capacidades são significativamente limitadas. Por exemplo, os LLMs são propensos a alucinações se receberem muitas entradas do usuário. Uma das principais razões está no mecanismo de treinamento. Por exemplo, se você repetidamente disser ao GPT que 1+1=3, há uma probabilidade de que ele possa responder 4 quando perguntado sobre 1+1+1=?.
Isso acontece porque o feedback do GPT é inteiramente derivado da entrada do usuário. Se o modelo não estiver conectado à internet, é possível que seu funcionamento seja alterado pelas suas entradas, resultando em um modelo que só "sabe" 1+1=3. No entanto, se o modelo for autorizado a se conectar à internet, seu mecanismo de feedback se torna mais diversificado, já que a grande maioria dos dados on-line afirmaria que 1+1=2.
E se tivermos de utilizar LLMs localmente e quisermos evitar esses problemas?
Uma solução direta é usar dois LLMs simultaneamente, exigindo que eles validem mutuamente as respostas um do outro para reduzir a probabilidade de erros. Se isso não for suficiente, outra abordagem poderia envolver ter dois usuários lidando com um único processo - um fazendo as perguntas e o outro refinando-as - para tornar a linguagem mais precisa e lógica.
Claro, estar conectado à internet não elimina completamente os problemas. Por exemplo, se o LLM recuperar respostas de fontes não confiáveis, a situação pode piorar. No entanto, evitar esses dados reduz a quantidade de informações disponíveis. Para lidar com isso, os dados existentes podem ser divididos, recombinados ou até mesmo usados para gerar novos dados com base em conjuntos de dados mais antigos para tornar as respostas mais confiáveis. Essa abordagem é essencialmente o conceito de RAG (Recuperação com Geração Aprimorada) na compreensão da linguagem natural.
Humanos e máquinas precisam de se entender. Quando vários LLMs colaboram e interagem, essencialmente estamos a explorar o modelo operacional dos Agentes de IA. Estes servem como procuradores humanos, acedendo a outros recursos, incluindo grandes modelos e outros agentes.
Isto leva-nos à ligação entre LLMs e Agentes de IA:
LLMs são agregações de conhecimento com as quais os humanos interagem por meio de interfaces de chat. No entanto, na prática, determinados fluxos de trabalho específicos podem ser condensados em programas menores, bots ou conjuntos de instruções. Esses são definidos como Agentes.
Os Agentes de IA permanecem um subconjunto de LLMs, mas não devem ser equiparados a eles. A característica definidora dos Agentes de IA reside em sua ênfase na colaboração com programas externos, LLMs e outros agentes. É por isso que as pessoas frequentemente resumem os Agentes de IA como LLM + API.
Para ilustrar isso no fluxo de trabalho do LLM, vamos pegar o exemplo de uma chamada de API através de um Agente de IA:
Lembra-se da evolução da interação humano-computador? Navegadores, APIs e outros elementos da Web 1.0 e Web 2.0 ainda existem, mas os utilizadores já não precisam de interagir com eles diretamente. Em vez disso, podem simplesmente interagir com Agentes de IA. As chamadas de API e os processos relacionados podem ser todos conduzidos de forma conversacional. Estes serviços de API podem englobar qualquer tipo de dados, quer sejam locais, online ou de aplicações externas, desde que as interfaces estejam abertas e os utilizadores tenham as permissões necessárias para aceder-las.
Um fluxo de trabalho completo do Agente de IA, conforme mostrado acima, trata LLM como um componente separado do Agente de IA ou como dois sub-processos dentro de um único fluxo de trabalho. Independentemente de como são divididos, o objetivo é sempre atender às necessidades do usuário. Do ponto de vista da interação humano-computador, pode até parecer que os usuários estão falando consigo mesmos. Você só precisa expressar completamente seus pensamentos, e o Agente de IA/LLM/Agente de IA adivinhará repetidamente suas necessidades. Ao incorporar mecanismos de feedback e garantir que o LLM se lembre do contexto atual, o Agente de IA evita perder o controle de suas tarefas.
Em resumo, os Agentes de IA são criações mais personalizadas e humanizadas, o que os diferencia dos scripts tradicionais e das ferramentas de automação. Eles agem como assistentes pessoais, levando em consideração as necessidades reais do usuário. No entanto, é importante observar que essa personalização ainda é baseada em inferências probabilísticas. Um Agente de IA de nível L3 não possui capacidades de compreensão e expressão no nível humano, tornando sua integração com APIs externas inerentemente arriscada.
A capacidade de monetizar estruturas de IA é uma das principais razões pelas quais continuo interessado em cripto. Nas pilhas de tecnologia de IA tradicionais, as estruturas não são particularmente importantes, pelo menos não em comparação com dados e poder de computação. A monetização dos produtos de IA raramente começa com a estrutura, pois a maioria dos algoritmos de IA e estruturas de modelo são de código aberto. O que permanece proprietário são elementos sensíveis como dados.
Essencialmente, os frameworks ou modelos de IA são recipientes e combinações de algoritmos, muito parecido com uma panela para cozinhar ganso. No entanto, a qualidade do ganso e o domínio do processo de cozimento são o que realmente definem o sabor. Em teoria, o produto à venda deveria ser o ganso, mas os clientes Web3 parecem preferir comprar a panela e descartar o ganso.
A razão para isso não é complicada. A maioria dos produtos Web3 AI se baseia em estruturas existentes de IA, algoritmos e produtos, personalizando-os para seus propósitos. Na verdade, os princípios técnicos por trás das diferentes estruturas de IA cripto não são muito diferentes. Como a própria tecnologia carece de diferenciação, a atenção se volta para a marca, cenários de aplicação e outras distinções superficiais. Como resultado, até pequenas alterações na estrutura de IA se tornam a base para suportar vários tokens, levando a uma bolha de estrutura dentro dos ecossistemas de Agentes de IA cripto.
Porque não é necessário investir muito em dados ou algoritmos de treinamento, a diferenciação de frameworks pelo nome se torna especialmente crucial. Mesmo um framework acessível como o DeepSeek V3 ainda demanda custos significativos em termos de potência GPU, eletricidade e esforço.
Num sentido, isto alinha-se com a tendência recente do Web3: as plataformas que emitem tokens são frequentemente mais valiosas do que os próprios tokens. Projetos como Pump.Fun e Hyperliquid exemplificam isto. Originalmente, os Agents deveriam representar aplicações e ativos, mas os frameworks que emitem Agents tornaram-se agora as commodities mais quentes.
Isso reflete uma forma de ancoragem de valor. Como os Agentes não têm diferenciação, os frameworks para emissão de Agentes se tornam mais estáveis e criam um efeito de drenagem de valor para emissão de ativos. Isso marca a versão 1.0 da integração de cripto e Agentes de IA.
A versão 2.0 está agora a emergir, exemplificada pela convergência de DeFi e AI Agents. Embora o conceito de DeFAI possa ter sido desencadeado pelo hype do mercado, uma análise mais profunda das seguintes tendências sugere o contrário:
Neste cenário de transformação DeFi, a IA está remodelando a lógica fundamental do DeFi. Anteriormente, a lógica central do DeFi era verificar a viabilidade dos contratos inteligentes. Agora, os Agentes de IA estão alterando a lógica de fabricação do DeFi. Você não precisa mais entender DeFi para criar produtos DeFi. Isso representa um passo além da abstração da cadeia, proporcionando um empoderamento fundamental mais profundo.
A era em que todos podem ser programadores está no horizonte. Computações complexas podem ser terceirizadas para o LLM e APIs por trás dos Agentes de IA, permitindo que os indivíduos se concentrem exclusivamente em suas ideias. A linguagem natural pode ser eficientemente transformada em lógica de programação.
Este artigo não menciona quaisquer tokens ou estruturas de Crypto AI Agent, pois a Cookie.Fun já fez um excelente trabalho - uma plataforma para agregação de informações de Agentes de IA e descoberta de tokens, seguida por estruturas de Agentes de IA e, por último, a efêmera emergência e desaparecimento de tokens de Agentes. Continuar a listar tais informações aqui seria de pouco valor.
No entanto, através de observações durante este período, o mercado ainda carece de uma discussão significativa sobre para onde os Agentes de IA de Cripto apontam ultimamente. Não podemos continuar a focar-nos nos apontadores; a essência está nas mudanças que ocorrem ao nível da memória.
É precisamente a capacidade em constante evolução de transformar vários ativos em formas tokenizadas que torna a Cripto tão cativante.
“Uma obra de arte nunca está concluída, apenas abandonada.”
Todos estão falando sobre Agentes de IA, mas o que eles querem dizer não é a mesma coisa, o que leva a diferentes entendimentos de Agentes de IA de nossa perspectiva, do público e dos praticantes de IA.
Há muito tempo, eu escrevi queCripto é a ilusão da IA. Desde então, a combinação de Cripto e IA tem sido um caso de amor unilateral. Os praticantes de IA raramente mencionam Web3 ou blockchain, enquanto os entusiastas de Cripto estão profundamente enamorados da IA. Depois de testemunhar o fenômeno em que os frameworks de Agente de IA podem até ser tokenizados, é incerto se isso poderia realmente trazer os praticantes de IA para o nosso mundo.
AI é o agente de Cripto. Esta é a melhor anotação de uma perspectiva cripto para ver o atual boom de IA. O entusiasmo da Cripto pela IA é diferente de outras indústrias; esperamos especialmente integrar a emissão e operação de ativos financeiros com ela.
No seu âmago, o AI Agent tem pelo menos três fontes. A AGI (Inteligência Artificial Geral) da OpenAI considera isso um passo importante, transformando o termo em uma palavra da moda popular além dos círculos técnicos. No entanto, essencialmente, um Agente não é um conceito novo. Mesmo com o empoderamento da IA, é difícil dizer que é uma tendência tecnológica revolucionária.
A primeira fonte é o Agente de IA como visto pela OpenAI. Similar ao nível L3 na condução autónoma, um Agente de IA pode ser visto como possuindo certas capacidades avançadas de assistência, mas ainda não é capaz de substituir totalmente um humano.
Legenda da imagem: Fase AGI do planeamento da OpenAI
Fonte da imagem: https://www.bloomberg.com/
A segunda fonte é, como o nome sugere, o Agente de IA, que é um Agente potencializado por IA. O conceito de agência e mecanismos de delegação não é novo no campo da computação. No entanto, sob a visão da OpenAI, o Agente se tornará a fase L3 seguinte a formas de conversação (como ChatGPT) e formas de raciocínio (como vários bots). A característica chave desta fase é a capacidade de "realizar certos comportamentos autonomamente," ou, como o fundador da LangChain, Harrison Chase, define: "Um Agente de IA é um sistema que utiliza um LLM (Large Language Model) para tomar decisões de fluxo de controle em um programa." \
Aqui é onde se torna intrigante. Antes do surgimento dos LLMs, um Agente executava principalmente processos de automação definidos por humanos. Por exemplo, ao projetar um web scraper, os programadores definiriam um User-Agent para simular detalhes como a versão do navegador e o sistema operacional usados por usuários reais. Se um Agente de IA fosse empregado para imitar o comportamento humano com mais precisão, isso poderia levar à criação de um framework de web scraper baseado em Agente de IA, tornando o scraper "mais semelhante a humano."
Nessas transições, a introdução de Agentes de IA deve integrar-se com cenários existentes, pois campos completamente novos dificilmente existem. Mesmo as capacidades de conclusão de código e geração em ferramentas como Curosr e Github Copilot são apenas melhorias funcionais dentro do framework do LSP (Protocolo do Servidor de Linguagem), com inúmeros exemplos dessa evolução:
Para esclarecer, na interação humano-computador, a combinação da GUI do Web 1.0 e dos navegadores realmente permitiu que o público usasse computadores sem barreiras, representado pela combinação do Windows e do IE. As APIs se tornaram o padrão de abstração e transmissão de dados por trás da internet, e durante a era do Web 2.0, surgiram navegadores como o Chrome, com uma mudança para dispositivos móveis que alterou os hábitos de uso da internet das pessoas. Super aplicativos como o WeChat e plataformas Meta agora abrangem todos os aspectos da vida das pessoas.
A terceira fonte é o conceito de "Intenção" no espaço Cripto, o que levou ao aumento do interesse em torno de Agentes de IA. No entanto, observe que isso é aplicável apenas dentro da Cripto. Desde scripts do Bitcoin com funcionalidade limitada até contratos inteligentes do Ethereum, o próprio conceito de Agente tem sido amplamente utilizado. O subsequente surgimento de pontes entre cadeias, abstrações de cadeias, EOA (Contas de Propriedade Externa) para carteiras AA (Abstração de Contas) são extensões naturais desta linha de pensamento. Portanto, quando os Agentes de IA "invadem" a Cripto, não é surpreendente que naturalmente levem a cenários DeFi.
É aqui que surge a confusão em torno do conceito de Agente de IA. No contexto de Cripto, o que estamos realmente tentando alcançar é um Agente de “gerenciamento financeiro automatizado, geração de memes automatizada”. No entanto, de acordo com a definição da OpenAI, um cenário tão arriscado exigiria a implementação real de L4 ou L5. Enquanto isso, o público está experimentando a geração automática de código ou assistência de resumo e redação com IA, que não estão no mesmo nível dos objetivos que estamos buscando.
Uma vez que entendemos o que realmente queremos, podemos nos concentrar na lógica organizacional dos Agentes de IA. Os detalhes técnicos seguirão, já que o conceito de um Agente de IA é sobre remover as barreiras à adoção de tecnologia em grande escala, assim como os navegadores revolucionaram a indústria do PC pessoal. Nosso foco será em dois pontos: examinar os Agentes de IA a partir da perspectiva da interação humano-computador e entender as diferenças e conexões entre os Agentes de IA e os LLMs, que nos levarão à terceira parte: o que a combinação de Cripto e Agentes de IA deixará para trás.
Antes dos modelos de interação humano-computador conversacionais como o ChatGPT, as principais formas de interação humano-computador eram GUI (Graphical User Interface) e CLI (Command-Line Interface). A mentalidade da GUI evoluiu para várias formas específicas, como navegadores e aplicativos, enquanto a combinação de CLI e Shell viu mudanças mínimas.
Mas isso é apenas a "interface do usuário" da interação entre humanos e computadores. À medida que a Internet evoluiu, o aumento no volume e na variedade de dados levou a mais interações "nos bastidores" entre dados e entre aplicativos. Esses dois aspectos dependem um do outro - até mesmo uma simples ação de navegação na web requer, na verdade, sua colaboração.
Se a interação humana com navegadores e aplicativos é considerada o ponto de entrada do usuário, os links e transições entre APIs suportam a operação real da internet. Isso, de fato, também faz parte do Agente. Os usuários comuns não precisam entender termos como linhas de comando e APIs para alcançar seus objetivos.
O mesmo acontece com LLMs. Agora, os usuários podem ir ainda mais longe - não há mais necessidade de procurar. Todo o processo pode ser descrito nos seguintes passos:
Pode ser encontrado que neste processo, o maior desafio é o Google, porque os usuários não precisam abrir o mecanismo de busca, mas várias janelas de diálogo semelhantes ao GPT, e a entrada de tráfego está mudando silenciosamente. É por essa razão que algumas pessoas pensam que este LLM revoluciona a vida dos mecanismos de busca.
Então, qual é o papel do Agente de IA neste processo?
Em resumo, o AI Agent é uma extensão especializada do LLM.
Os atuais LLMs não são AGI (Inteligência Artificial Geral) e estão longe do organizador L5 imaginado pela OpenAI. Suas capacidades são significativamente limitadas. Por exemplo, os LLMs são propensos a alucinações se receberem muitas entradas do usuário. Uma das principais razões está no mecanismo de treinamento. Por exemplo, se você repetidamente disser ao GPT que 1+1=3, há uma probabilidade de que ele possa responder 4 quando perguntado sobre 1+1+1=?.
Isso acontece porque o feedback do GPT é inteiramente derivado da entrada do usuário. Se o modelo não estiver conectado à internet, é possível que seu funcionamento seja alterado pelas suas entradas, resultando em um modelo que só "sabe" 1+1=3. No entanto, se o modelo for autorizado a se conectar à internet, seu mecanismo de feedback se torna mais diversificado, já que a grande maioria dos dados on-line afirmaria que 1+1=2.
E se tivermos de utilizar LLMs localmente e quisermos evitar esses problemas?
Uma solução direta é usar dois LLMs simultaneamente, exigindo que eles validem mutuamente as respostas um do outro para reduzir a probabilidade de erros. Se isso não for suficiente, outra abordagem poderia envolver ter dois usuários lidando com um único processo - um fazendo as perguntas e o outro refinando-as - para tornar a linguagem mais precisa e lógica.
Claro, estar conectado à internet não elimina completamente os problemas. Por exemplo, se o LLM recuperar respostas de fontes não confiáveis, a situação pode piorar. No entanto, evitar esses dados reduz a quantidade de informações disponíveis. Para lidar com isso, os dados existentes podem ser divididos, recombinados ou até mesmo usados para gerar novos dados com base em conjuntos de dados mais antigos para tornar as respostas mais confiáveis. Essa abordagem é essencialmente o conceito de RAG (Recuperação com Geração Aprimorada) na compreensão da linguagem natural.
Humanos e máquinas precisam de se entender. Quando vários LLMs colaboram e interagem, essencialmente estamos a explorar o modelo operacional dos Agentes de IA. Estes servem como procuradores humanos, acedendo a outros recursos, incluindo grandes modelos e outros agentes.
Isto leva-nos à ligação entre LLMs e Agentes de IA:
LLMs são agregações de conhecimento com as quais os humanos interagem por meio de interfaces de chat. No entanto, na prática, determinados fluxos de trabalho específicos podem ser condensados em programas menores, bots ou conjuntos de instruções. Esses são definidos como Agentes.
Os Agentes de IA permanecem um subconjunto de LLMs, mas não devem ser equiparados a eles. A característica definidora dos Agentes de IA reside em sua ênfase na colaboração com programas externos, LLMs e outros agentes. É por isso que as pessoas frequentemente resumem os Agentes de IA como LLM + API.
Para ilustrar isso no fluxo de trabalho do LLM, vamos pegar o exemplo de uma chamada de API através de um Agente de IA:
Lembra-se da evolução da interação humano-computador? Navegadores, APIs e outros elementos da Web 1.0 e Web 2.0 ainda existem, mas os utilizadores já não precisam de interagir com eles diretamente. Em vez disso, podem simplesmente interagir com Agentes de IA. As chamadas de API e os processos relacionados podem ser todos conduzidos de forma conversacional. Estes serviços de API podem englobar qualquer tipo de dados, quer sejam locais, online ou de aplicações externas, desde que as interfaces estejam abertas e os utilizadores tenham as permissões necessárias para aceder-las.
Um fluxo de trabalho completo do Agente de IA, conforme mostrado acima, trata LLM como um componente separado do Agente de IA ou como dois sub-processos dentro de um único fluxo de trabalho. Independentemente de como são divididos, o objetivo é sempre atender às necessidades do usuário. Do ponto de vista da interação humano-computador, pode até parecer que os usuários estão falando consigo mesmos. Você só precisa expressar completamente seus pensamentos, e o Agente de IA/LLM/Agente de IA adivinhará repetidamente suas necessidades. Ao incorporar mecanismos de feedback e garantir que o LLM se lembre do contexto atual, o Agente de IA evita perder o controle de suas tarefas.
Em resumo, os Agentes de IA são criações mais personalizadas e humanizadas, o que os diferencia dos scripts tradicionais e das ferramentas de automação. Eles agem como assistentes pessoais, levando em consideração as necessidades reais do usuário. No entanto, é importante observar que essa personalização ainda é baseada em inferências probabilísticas. Um Agente de IA de nível L3 não possui capacidades de compreensão e expressão no nível humano, tornando sua integração com APIs externas inerentemente arriscada.
A capacidade de monetizar estruturas de IA é uma das principais razões pelas quais continuo interessado em cripto. Nas pilhas de tecnologia de IA tradicionais, as estruturas não são particularmente importantes, pelo menos não em comparação com dados e poder de computação. A monetização dos produtos de IA raramente começa com a estrutura, pois a maioria dos algoritmos de IA e estruturas de modelo são de código aberto. O que permanece proprietário são elementos sensíveis como dados.
Essencialmente, os frameworks ou modelos de IA são recipientes e combinações de algoritmos, muito parecido com uma panela para cozinhar ganso. No entanto, a qualidade do ganso e o domínio do processo de cozimento são o que realmente definem o sabor. Em teoria, o produto à venda deveria ser o ganso, mas os clientes Web3 parecem preferir comprar a panela e descartar o ganso.
A razão para isso não é complicada. A maioria dos produtos Web3 AI se baseia em estruturas existentes de IA, algoritmos e produtos, personalizando-os para seus propósitos. Na verdade, os princípios técnicos por trás das diferentes estruturas de IA cripto não são muito diferentes. Como a própria tecnologia carece de diferenciação, a atenção se volta para a marca, cenários de aplicação e outras distinções superficiais. Como resultado, até pequenas alterações na estrutura de IA se tornam a base para suportar vários tokens, levando a uma bolha de estrutura dentro dos ecossistemas de Agentes de IA cripto.
Porque não é necessário investir muito em dados ou algoritmos de treinamento, a diferenciação de frameworks pelo nome se torna especialmente crucial. Mesmo um framework acessível como o DeepSeek V3 ainda demanda custos significativos em termos de potência GPU, eletricidade e esforço.
Num sentido, isto alinha-se com a tendência recente do Web3: as plataformas que emitem tokens são frequentemente mais valiosas do que os próprios tokens. Projetos como Pump.Fun e Hyperliquid exemplificam isto. Originalmente, os Agents deveriam representar aplicações e ativos, mas os frameworks que emitem Agents tornaram-se agora as commodities mais quentes.
Isso reflete uma forma de ancoragem de valor. Como os Agentes não têm diferenciação, os frameworks para emissão de Agentes se tornam mais estáveis e criam um efeito de drenagem de valor para emissão de ativos. Isso marca a versão 1.0 da integração de cripto e Agentes de IA.
A versão 2.0 está agora a emergir, exemplificada pela convergência de DeFi e AI Agents. Embora o conceito de DeFAI possa ter sido desencadeado pelo hype do mercado, uma análise mais profunda das seguintes tendências sugere o contrário:
Neste cenário de transformação DeFi, a IA está remodelando a lógica fundamental do DeFi. Anteriormente, a lógica central do DeFi era verificar a viabilidade dos contratos inteligentes. Agora, os Agentes de IA estão alterando a lógica de fabricação do DeFi. Você não precisa mais entender DeFi para criar produtos DeFi. Isso representa um passo além da abstração da cadeia, proporcionando um empoderamento fundamental mais profundo.
A era em que todos podem ser programadores está no horizonte. Computações complexas podem ser terceirizadas para o LLM e APIs por trás dos Agentes de IA, permitindo que os indivíduos se concentrem exclusivamente em suas ideias. A linguagem natural pode ser eficientemente transformada em lógica de programação.
Este artigo não menciona quaisquer tokens ou estruturas de Crypto AI Agent, pois a Cookie.Fun já fez um excelente trabalho - uma plataforma para agregação de informações de Agentes de IA e descoberta de tokens, seguida por estruturas de Agentes de IA e, por último, a efêmera emergência e desaparecimento de tokens de Agentes. Continuar a listar tais informações aqui seria de pouco valor.
No entanto, através de observações durante este período, o mercado ainda carece de uma discussão significativa sobre para onde os Agentes de IA de Cripto apontam ultimamente. Não podemos continuar a focar-nos nos apontadores; a essência está nas mudanças que ocorrem ao nível da memória.
É precisamente a capacidade em constante evolução de transformar vários ativos em formas tokenizadas que torna a Cripto tão cativante.