“Uma obra de arte nunca está concluída, apenas abandonada.”
Todos estão falando sobre Agentes de IA, mas o que eles querem dizer não é a mesma coisa, o que leva a diferentes entendimentos de Agentes de IA de nossa perspectiva, do público e dos praticantes de IA.
Há muito tempo atrás, eu escrevi que Cripto é a ilusão da IA. Desde então, a combinação de Cripto e IA tem sido um caso de amor não correspondido. Os praticantes de IA raramente mencionam a Web3 ou blockchain, enquanto os entusiastas de Cripto estão profundamente enamorados da IA. Depois de testemunhar o fenômeno em que os frameworks de Agentes de IA podem até mesmo ser tokenizados, é incerto se isso poderia realmente trazer os praticantes de IA para o nosso mundo.
AI é o agente da Cripto. Esta é a melhor anotação do ponto de vista da cripto para visualizar a atual onda de IA. O entusiasmo da Cripto pela IA é diferente de outras indústrias; esperamos especialmente integrar a emissão e operação de ativos financeiros com ela.
No seu núcleo, o AI Agent tem pelo menos três fontes. A AGI (Inteligência Geral Artificial) da OpenAI considera isso como um passo importante, transformando o termo em uma palavra da moda popular além dos círculos técnicos. No entanto, em essência, um Agente não é um conceito novo. Mesmo com o empoderamento da IA, é difícil dizer que é uma tendência tecnológica revolucionária.
A primeira fonte é o Agente de IA visto pela OpenAI. Semelhante ao nível L3 em direção autônoma, um Agente de IA pode ser visto como possuindo certas capacidades avançadas de assistência, mas ainda não é capaz de substituir totalmente um humano.
Legenda da imagem: Fase AGI do planejamento da OpenAI
Fonte da imagem: https://www.bloomberg.com/
A segunda fonte é, como o nome sugere, o Agente de IA, que é um Agente capacitado pela IA. O conceito de agência e mecanismos de delegação não é novo no campo da computação. No entanto, sob a visão da OpenAI, o Agente se tornará a etapa L3 após formas conversacionais (como o ChatGPT) e formas de raciocínio (como vários bots). A característica chave desta etapa é a capacidade de "realizar certos comportamentos autonomamente," ou, como o fundador da LangChain, Harrison Chase, define: "Um Agente de IA é um sistema que usa LLM (Modelo de Linguagem Grande) para tomar decisões de fluxo de controle em um programa." \
Aqui é onde se torna intrigante. Antes do surgimento dos LLMs, um Agente executava principalmente processos de automação definidos por humanos. Por exemplo, ao projetar um raspador da web, os programadores definiam um User-Agent para simular detalhes como a versão do navegador e o sistema operacional usado por usuários reais. Se um Agente de IA fosse empregado para imitar o comportamento humano de forma mais precisa, poderia levar à criação de um framework de raspador da web baseado em Agente de IA, tornando o raspador “mais semelhante a humano.” \
Nessas transições, a introdução de agentes de IA deve integrar-se aos cenários existentes, já que campos completamente novos quase não existem. Mesmo as capacidades de conclusão e geração de código em ferramentas como Curosr e Github Copilot são apenas melhorias funcionais dentro do quadro de LSP (Protocolo do Servidor de Linguagem), com numerosos exemplos dessa evolução:
Para esclarecer, na interação humano-computador, a combinação da GUI do Web 1.0 e dos navegadores realmente permitiu que o público usasse computadores sem barreiras, representado pela combinação do Windows e do IE. As APIs se tornaram o padrão de abstração e transmissão de dados por trás da internet, e durante a era do Web 2.0, surgiram navegadores como o Chrome, com uma mudança para dispositivos móveis que alterou os hábitos de uso da internet das pessoas. Super aplicativos como o WeChat e plataformas Meta agora abrangem todos os aspectos da vida das pessoas.
A terceira fonte é o conceito de “Intenção” no espaço Cripto, que levou ao aumento do interesse em torno dos Agentes de IA. No entanto, observe que isso só é aplicável dentro do Cripto. Desde scripts limitados de Bitcoin até contratos inteligentes da Ethereum, o próprio conceito de Agente tem sido amplamente utilizado. A subsequente emergência de pontes intercadeias, abstrações de cadeias, carteiras EOA (Contas Externamente Proprietárias) para carteiras AA (Abstração de Conta) são extensões naturais dessa linha de pensamento. Portanto, quando os Agentes de IA “invadem” o Cripto, não é surpreendente que eles naturalmente levem a cenários DeFi.
Aqui é onde surge a confusão em torno do conceito de Agente de IA. No contexto de Cripto, o que estamos realmente tentando alcançar é um Agente de "gerenciamento financeiro automatizado, geração de memes automatizada". No entanto, de acordo com a definição da OpenAI, um cenário tão arriscado exigiria que L4 ou L5 fosse implementado de verdade. Enquanto isso, o público está experimentando a geração automática de código ou assistência de resumo e escrita com IA, que não estão no mesmo nível dos objetivos que estamos buscando.
Uma vez que compreendemos o que realmente queremos, podemos focar na lógica organizacional dos Agentes de IA. Os detalhes técnicos virão a seguir, já que o conceito de um Agente de IA é, em última instância, sobre a remoção das barreiras à adoção de tecnologia em larga escala, assim como os navegadores revolucionaram a indústria de PCs pessoais. Nosso foco estará em dois pontos: examinando os Agentes de IA a partir da perspectiva da interação humano-computador e entendendo as diferenças e conexões entre os Agentes de IA e os LLMs, o que nos levará à terceira parte: o que a combinação de Cripto e Agentes de IA acabará deixando para trás.
Antes dos modelos de interação humano-computador conversacionais como o ChatGPT, as formas primárias de interação humano-computador eram GUI (Interface Gráfica do Usuário) e CLI (Interface de Linha de Comando). A mentalidade GUI evoluiu para várias formas específicas como navegadores e aplicativos, enquanto a combinação de CLI e Shell teve mudanças mínimas.
Mas isso é apenas a "interface" da interação humano-computador. À medida que a internet evoluiu, o aumento no volume e na variedade de dados levou a mais interações "de bastidores" entre dados e entre aplicativos. Esses dois aspectos dependem um do outro — até mesmo uma ação simples de navegação na web realmente requer a colaboração deles.
Se a interação humana com navegadores e aplicativos for considerada o ponto de entrada do usuário, os links e transições entre APIs suportam a operação real da internet. Isso, na verdade, também faz parte do Agente. Usuários comuns não precisam entender termos como linhas de comando e APIs para alcançar seus objetivos.
O mesmo acontece com LLMs. Agora, os usuários podem ir ainda mais longe - não há mais necessidade de procurar. Todo o processo pode ser descrito nos seguintes passos:
Pode-se constatar que, nesse processo, o maior desafio é o Google, pois os usuários não precisam abrir o mecanismo de busca, mas várias janelas de diálogo semelhantes ao GPT e a entrada de tráfego está mudando silenciosamente. É por essa razão que algumas pessoas acham que esse LLM revoluciona a vida dos mecanismos de busca.
Então, qual o papel do Agente de IA nesse processo?
Em resumo, o Agente de IA é uma extensão especializada do LLM.
Os atuais LLMs não são AGI (Inteligência Artificial Geral) e estão longe do organizador L5 concebido pela OpenAI. Suas capacidades são significativamente limitadas. Por exemplo, os LLMs são propensos a alucinações se alimentados com muitas entradas do usuário. Uma razão chave está no mecanismo de treinamento. Por exemplo, se você disser repetidamente ao GPT que 1+1=3, há uma probabilidade de que ele possa responder 4 quando perguntado sobre 1+1+1=?.
Isso acontece porque o feedback do GPT é inteiramente derivado da entrada do usuário. Se o modelo não estiver conectado à internet, é possível que sua operação seja alterada por suas entradas, resultando em um modelo que só "sabe" que 1+1=3. No entanto, se o modelo puder se conectar à internet, seu mecanismo de feedback se torna mais diversificado, já que a grande maioria dos dados online afirmaria que 1+1=2.
Agora, e se precisarmos usar LLMs localmente e quisermos evitar tais problemas?
Uma solução direta é usar dois LLMs simultaneamente, exigindo que eles se cruzem para validar as respostas um do outro para reduzir a probabilidade de erros. Se isso não for suficiente, outra abordagem poderia envolver dois usuários lidando com um único processo—um fazendo as perguntas e o outro as refinando—para tornar a linguagem mais precisa e lógica.
Claro, estar conectado à internet não elimina completamente os problemas. Por exemplo, se o LLM recupera respostas de fontes não confiáveis, a situação pode piorar. No entanto, evitar tais dados reduz a quantidade de informações disponíveis. Para lidar com isso, os dados existentes podem ser divididos, recombinados ou até mesmo usados para gerar novos dados com base em conjuntos de dados mais antigos para tornar as respostas mais confiáveis. Essa abordagem é essencialmente o conceito de RAG (Geração com Recuperação Aprimorada) na compreensão da linguagem natural.
Humanos e máquinas precisam entender um ao outro. Quando vários LLMs colaboram e interagem, essencialmente exploramos o modelo operacional de Agentes de IA. Estes servem como procurações humanas, acessando outros recursos, incluindo modelos grandes e outros agentes.
Isso nos leva à conexão entre LLMs e Agentes de IA:
LLMs são agregações de conhecimento com as quais os humanos interagem por meio de interfaces de chat. No entanto, na prática, certos fluxos de trabalho específicos podem ser condensados em programas menores, bots ou conjuntos de instruções. Esses são definidos como Agentes.
Agentes de IA continuam sendo um subconjunto de LLMs, mas não devem ser equiparados a eles. A característica definidora dos Agentes de IA está em seu foco na colaboração com programas externos, LLMs e outros agentes. É por isso que as pessoas frequentemente resumem os Agentes de IA como LLM + API.
Para ilustrar isso no fluxo de trabalho LLM, vamos pegar o exemplo de uma chamada de API através de um Agente de IA:
Lembra da evolução da interação humano-computador? Navegadores, APIs e outros elementos da Web 1.0 e Web 2.0 ainda existem, mas os usuários não precisam mais interagir diretamente com eles. Em vez disso, eles podem simplesmente se envolver com Agentes de IA. Chamadas de API e processos relacionados podem ser realizados de forma conversacional. Esses serviços de API podem abranger qualquer tipo de dados, seja local, online ou de aplicativos externos, desde que as interfaces estejam abertas e os usuários tenham as permissões necessárias para acessá-los.
Um fluxo de trabalho completo do Agente de IA, como mostrado acima, trata o LLM como um componente separado do Agente de IA ou como dois sub-processos dentro de um único fluxo de trabalho. Independentemente de como eles são divididos, o objetivo é sempre atender às necessidades do usuário. Do ponto de vista da interação humano-computador, pode até parecer que os usuários estão conversando consigo mesmos. Você só precisa expressar completamente seus pensamentos, e o Agente de IA/LLM/Agente de IA adivinhará repetidamente suas necessidades. Ao incorporar mecanismos de feedback e garantir que o LLM lembre o contexto atual, o Agente de IA evita perder o controle de suas tarefas.
Em resumo, os Agentes de IA são criações mais personalizadas e humanizadas, diferenciando-os dos scripts tradicionais e ferramentas de automação. Eles atuam como assistentes pessoais, considerando as reais necessidades do usuário. No entanto, é importante notar que essa personalização ainda é baseada em inferência probabilística. Um agente de IA de nível L3 não possui recursos de compreensão e expressão em nível humano, tornando sua integração com APIs externas inerentemente arriscada.
A capacidade de monetizar estruturas de IA é uma das principais razões pelas quais eu continuo interessado em cripto. Nas pilhas de tecnologia de IA tradicional, as estruturas não são particularmente importantes, pelo menos não em comparação com dados e poder computacional. Monetizar produtos de IA raramente começa com a estrutura, pois a maioria dos algoritmos de IA e estruturas de modelo são de código aberto. O que permanece proprietário são elementos sensíveis como dados.
Essencialmente, as estruturas ou modelos de IA são recipientes e combinações de algoritmos, assim como uma panela para cozinhar ganso. No entanto, a qualidade do ganso e a maestria no processo de cozimento são o que realmente definem o sabor. Em teoria, o produto à venda deveria ser o ganso, mas os clientes da Web3 parecem preferir comprar a panela enquanto descartam o ganso.
A razão para isso não é complicada. A maioria dos produtos Web3 AI se baseiam em estruturas, algoritmos e produtos AI existentes, personalizando-os para seus propósitos. Na verdade, os princípios técnicos por trás das diferentes estruturas de AI cripto não são muito diferentes. Como a própria tecnologia carece de diferenciação, a atenção se volta para a marca, cenários de aplicação e outras distinções superficiais. Como resultado, até pequenos ajustes na estrutura de AI se tornam a base para suportar vários tokens, levando a uma bolha de estrutura dentro dos ecossistemas de agentes de AI cripto.
Como não há necessidade de investir pesado em dados de treinamento ou algoritmos, diferenciar frameworks pelo nome torna-se especialmente crucial. Mesmo uma estrutura acessível como o DeepSeek V3 ainda exige custos significativos em termos de energia da GPU, eletricidade e esforço.
De certa forma, isso se alinha com a tendência recente da Web3: as plataformas que emitem tokens geralmente são mais valiosas do que os próprios tokens. Projetos como Pump.Fun e Hyperliquid exemplificam isso. Originalmente, os Agentes deveriam representar aplicativos e ativos, mas as estruturas emissoras de Agentes agora se tornaram as commodities mais quentes.
Isso reflete uma forma de ancoragem de valor. Como os Agentes não possuem diferenciação, os frameworks para emissão de Agentes se tornam mais estáveis e criam um efeito de drenagem de valor para a emissão de ativos. Isso marca a versão 1.0 da integração de cripto e Agentes de IA.
A versão 2.0 está agora emergindo, exemplificada pela convergência de DeFi e Agentes de IA. Embora o conceito de DeFAI possa ter sido desencadeado pelo hype do mercado, uma análise mais aprofundada das seguintes tendências sugere o contrário:
Dentro desse cenário de transformação DeFi, a IA está remodelando a lógica fundamental da DeFi. Anteriormente, a lógica central da DeFi era verificar a viabilidade dos contratos inteligentes. Agora, os Agentes de IA estão alterando a lógica de fabricação da DeFi. Você não precisa mais entender DeFi para criar produtos DeFi. Isso representa um passo além da abstração de cadeias, fornecendo um empoderamento fundamental mais profundo.
A era em que todos podem ser programadores está no horizonte. Cálculos complexos podem ser terceirizados para o LLM e APIs por trás de agentes de IA, permitindo que indivíduos se concentrem exclusivamente em suas ideias. A linguagem natural pode ser transformada eficientemente em lógica de programação.
Este artigo não menciona nenhum token ou estrutura de Crypto AI Agent, pois Cookie.Fun já fez um excelente trabalho - uma plataforma para agregação de informações de Agentes de IA e descoberta de tokens, seguida por estruturas de Agentes de IA e, por fim, a efêmera emergência e desaparecimento de tokens de Agentes. Continuar a listar essas informações aqui seria de pouco valor.
No entanto, através de observações durante este período, o mercado ainda carece de uma discussão significativa sobre para onde os Agentes de IA de Cripto estão apontando. Não podemos continuar focando nos ponteiros; a essência está nas mudanças que estão acontecendo no nível de memória.
É precisamente a capacidade em constante evolução de transformar vários ativos em formas tokenizadas que torna a Cripto tão cativante.
“Uma obra de arte nunca está concluída, apenas abandonada.”
Todos estão falando sobre Agentes de IA, mas o que eles querem dizer não é a mesma coisa, o que leva a diferentes entendimentos de Agentes de IA de nossa perspectiva, do público e dos praticantes de IA.
Há muito tempo atrás, eu escrevi que Cripto é a ilusão da IA. Desde então, a combinação de Cripto e IA tem sido um caso de amor não correspondido. Os praticantes de IA raramente mencionam a Web3 ou blockchain, enquanto os entusiastas de Cripto estão profundamente enamorados da IA. Depois de testemunhar o fenômeno em que os frameworks de Agentes de IA podem até mesmo ser tokenizados, é incerto se isso poderia realmente trazer os praticantes de IA para o nosso mundo.
AI é o agente da Cripto. Esta é a melhor anotação do ponto de vista da cripto para visualizar a atual onda de IA. O entusiasmo da Cripto pela IA é diferente de outras indústrias; esperamos especialmente integrar a emissão e operação de ativos financeiros com ela.
No seu núcleo, o AI Agent tem pelo menos três fontes. A AGI (Inteligência Geral Artificial) da OpenAI considera isso como um passo importante, transformando o termo em uma palavra da moda popular além dos círculos técnicos. No entanto, em essência, um Agente não é um conceito novo. Mesmo com o empoderamento da IA, é difícil dizer que é uma tendência tecnológica revolucionária.
A primeira fonte é o Agente de IA visto pela OpenAI. Semelhante ao nível L3 em direção autônoma, um Agente de IA pode ser visto como possuindo certas capacidades avançadas de assistência, mas ainda não é capaz de substituir totalmente um humano.
Legenda da imagem: Fase AGI do planejamento da OpenAI
Fonte da imagem: https://www.bloomberg.com/
A segunda fonte é, como o nome sugere, o Agente de IA, que é um Agente capacitado pela IA. O conceito de agência e mecanismos de delegação não é novo no campo da computação. No entanto, sob a visão da OpenAI, o Agente se tornará a etapa L3 após formas conversacionais (como o ChatGPT) e formas de raciocínio (como vários bots). A característica chave desta etapa é a capacidade de "realizar certos comportamentos autonomamente," ou, como o fundador da LangChain, Harrison Chase, define: "Um Agente de IA é um sistema que usa LLM (Modelo de Linguagem Grande) para tomar decisões de fluxo de controle em um programa." \
Aqui é onde se torna intrigante. Antes do surgimento dos LLMs, um Agente executava principalmente processos de automação definidos por humanos. Por exemplo, ao projetar um raspador da web, os programadores definiam um User-Agent para simular detalhes como a versão do navegador e o sistema operacional usado por usuários reais. Se um Agente de IA fosse empregado para imitar o comportamento humano de forma mais precisa, poderia levar à criação de um framework de raspador da web baseado em Agente de IA, tornando o raspador “mais semelhante a humano.” \
Nessas transições, a introdução de agentes de IA deve integrar-se aos cenários existentes, já que campos completamente novos quase não existem. Mesmo as capacidades de conclusão e geração de código em ferramentas como Curosr e Github Copilot são apenas melhorias funcionais dentro do quadro de LSP (Protocolo do Servidor de Linguagem), com numerosos exemplos dessa evolução:
Para esclarecer, na interação humano-computador, a combinação da GUI do Web 1.0 e dos navegadores realmente permitiu que o público usasse computadores sem barreiras, representado pela combinação do Windows e do IE. As APIs se tornaram o padrão de abstração e transmissão de dados por trás da internet, e durante a era do Web 2.0, surgiram navegadores como o Chrome, com uma mudança para dispositivos móveis que alterou os hábitos de uso da internet das pessoas. Super aplicativos como o WeChat e plataformas Meta agora abrangem todos os aspectos da vida das pessoas.
A terceira fonte é o conceito de “Intenção” no espaço Cripto, que levou ao aumento do interesse em torno dos Agentes de IA. No entanto, observe que isso só é aplicável dentro do Cripto. Desde scripts limitados de Bitcoin até contratos inteligentes da Ethereum, o próprio conceito de Agente tem sido amplamente utilizado. A subsequente emergência de pontes intercadeias, abstrações de cadeias, carteiras EOA (Contas Externamente Proprietárias) para carteiras AA (Abstração de Conta) são extensões naturais dessa linha de pensamento. Portanto, quando os Agentes de IA “invadem” o Cripto, não é surpreendente que eles naturalmente levem a cenários DeFi.
Aqui é onde surge a confusão em torno do conceito de Agente de IA. No contexto de Cripto, o que estamos realmente tentando alcançar é um Agente de "gerenciamento financeiro automatizado, geração de memes automatizada". No entanto, de acordo com a definição da OpenAI, um cenário tão arriscado exigiria que L4 ou L5 fosse implementado de verdade. Enquanto isso, o público está experimentando a geração automática de código ou assistência de resumo e escrita com IA, que não estão no mesmo nível dos objetivos que estamos buscando.
Uma vez que compreendemos o que realmente queremos, podemos focar na lógica organizacional dos Agentes de IA. Os detalhes técnicos virão a seguir, já que o conceito de um Agente de IA é, em última instância, sobre a remoção das barreiras à adoção de tecnologia em larga escala, assim como os navegadores revolucionaram a indústria de PCs pessoais. Nosso foco estará em dois pontos: examinando os Agentes de IA a partir da perspectiva da interação humano-computador e entendendo as diferenças e conexões entre os Agentes de IA e os LLMs, o que nos levará à terceira parte: o que a combinação de Cripto e Agentes de IA acabará deixando para trás.
Antes dos modelos de interação humano-computador conversacionais como o ChatGPT, as formas primárias de interação humano-computador eram GUI (Interface Gráfica do Usuário) e CLI (Interface de Linha de Comando). A mentalidade GUI evoluiu para várias formas específicas como navegadores e aplicativos, enquanto a combinação de CLI e Shell teve mudanças mínimas.
Mas isso é apenas a "interface" da interação humano-computador. À medida que a internet evoluiu, o aumento no volume e na variedade de dados levou a mais interações "de bastidores" entre dados e entre aplicativos. Esses dois aspectos dependem um do outro — até mesmo uma ação simples de navegação na web realmente requer a colaboração deles.
Se a interação humana com navegadores e aplicativos for considerada o ponto de entrada do usuário, os links e transições entre APIs suportam a operação real da internet. Isso, na verdade, também faz parte do Agente. Usuários comuns não precisam entender termos como linhas de comando e APIs para alcançar seus objetivos.
O mesmo acontece com LLMs. Agora, os usuários podem ir ainda mais longe - não há mais necessidade de procurar. Todo o processo pode ser descrito nos seguintes passos:
Pode-se constatar que, nesse processo, o maior desafio é o Google, pois os usuários não precisam abrir o mecanismo de busca, mas várias janelas de diálogo semelhantes ao GPT e a entrada de tráfego está mudando silenciosamente. É por essa razão que algumas pessoas acham que esse LLM revoluciona a vida dos mecanismos de busca.
Então, qual o papel do Agente de IA nesse processo?
Em resumo, o Agente de IA é uma extensão especializada do LLM.
Os atuais LLMs não são AGI (Inteligência Artificial Geral) e estão longe do organizador L5 concebido pela OpenAI. Suas capacidades são significativamente limitadas. Por exemplo, os LLMs são propensos a alucinações se alimentados com muitas entradas do usuário. Uma razão chave está no mecanismo de treinamento. Por exemplo, se você disser repetidamente ao GPT que 1+1=3, há uma probabilidade de que ele possa responder 4 quando perguntado sobre 1+1+1=?.
Isso acontece porque o feedback do GPT é inteiramente derivado da entrada do usuário. Se o modelo não estiver conectado à internet, é possível que sua operação seja alterada por suas entradas, resultando em um modelo que só "sabe" que 1+1=3. No entanto, se o modelo puder se conectar à internet, seu mecanismo de feedback se torna mais diversificado, já que a grande maioria dos dados online afirmaria que 1+1=2.
Agora, e se precisarmos usar LLMs localmente e quisermos evitar tais problemas?
Uma solução direta é usar dois LLMs simultaneamente, exigindo que eles se cruzem para validar as respostas um do outro para reduzir a probabilidade de erros. Se isso não for suficiente, outra abordagem poderia envolver dois usuários lidando com um único processo—um fazendo as perguntas e o outro as refinando—para tornar a linguagem mais precisa e lógica.
Claro, estar conectado à internet não elimina completamente os problemas. Por exemplo, se o LLM recupera respostas de fontes não confiáveis, a situação pode piorar. No entanto, evitar tais dados reduz a quantidade de informações disponíveis. Para lidar com isso, os dados existentes podem ser divididos, recombinados ou até mesmo usados para gerar novos dados com base em conjuntos de dados mais antigos para tornar as respostas mais confiáveis. Essa abordagem é essencialmente o conceito de RAG (Geração com Recuperação Aprimorada) na compreensão da linguagem natural.
Humanos e máquinas precisam entender um ao outro. Quando vários LLMs colaboram e interagem, essencialmente exploramos o modelo operacional de Agentes de IA. Estes servem como procurações humanas, acessando outros recursos, incluindo modelos grandes e outros agentes.
Isso nos leva à conexão entre LLMs e Agentes de IA:
LLMs são agregações de conhecimento com as quais os humanos interagem por meio de interfaces de chat. No entanto, na prática, certos fluxos de trabalho específicos podem ser condensados em programas menores, bots ou conjuntos de instruções. Esses são definidos como Agentes.
Agentes de IA continuam sendo um subconjunto de LLMs, mas não devem ser equiparados a eles. A característica definidora dos Agentes de IA está em seu foco na colaboração com programas externos, LLMs e outros agentes. É por isso que as pessoas frequentemente resumem os Agentes de IA como LLM + API.
Para ilustrar isso no fluxo de trabalho LLM, vamos pegar o exemplo de uma chamada de API através de um Agente de IA:
Lembra da evolução da interação humano-computador? Navegadores, APIs e outros elementos da Web 1.0 e Web 2.0 ainda existem, mas os usuários não precisam mais interagir diretamente com eles. Em vez disso, eles podem simplesmente se envolver com Agentes de IA. Chamadas de API e processos relacionados podem ser realizados de forma conversacional. Esses serviços de API podem abranger qualquer tipo de dados, seja local, online ou de aplicativos externos, desde que as interfaces estejam abertas e os usuários tenham as permissões necessárias para acessá-los.
Um fluxo de trabalho completo do Agente de IA, como mostrado acima, trata o LLM como um componente separado do Agente de IA ou como dois sub-processos dentro de um único fluxo de trabalho. Independentemente de como eles são divididos, o objetivo é sempre atender às necessidades do usuário. Do ponto de vista da interação humano-computador, pode até parecer que os usuários estão conversando consigo mesmos. Você só precisa expressar completamente seus pensamentos, e o Agente de IA/LLM/Agente de IA adivinhará repetidamente suas necessidades. Ao incorporar mecanismos de feedback e garantir que o LLM lembre o contexto atual, o Agente de IA evita perder o controle de suas tarefas.
Em resumo, os Agentes de IA são criações mais personalizadas e humanizadas, diferenciando-os dos scripts tradicionais e ferramentas de automação. Eles atuam como assistentes pessoais, considerando as reais necessidades do usuário. No entanto, é importante notar que essa personalização ainda é baseada em inferência probabilística. Um agente de IA de nível L3 não possui recursos de compreensão e expressão em nível humano, tornando sua integração com APIs externas inerentemente arriscada.
A capacidade de monetizar estruturas de IA é uma das principais razões pelas quais eu continuo interessado em cripto. Nas pilhas de tecnologia de IA tradicional, as estruturas não são particularmente importantes, pelo menos não em comparação com dados e poder computacional. Monetizar produtos de IA raramente começa com a estrutura, pois a maioria dos algoritmos de IA e estruturas de modelo são de código aberto. O que permanece proprietário são elementos sensíveis como dados.
Essencialmente, as estruturas ou modelos de IA são recipientes e combinações de algoritmos, assim como uma panela para cozinhar ganso. No entanto, a qualidade do ganso e a maestria no processo de cozimento são o que realmente definem o sabor. Em teoria, o produto à venda deveria ser o ganso, mas os clientes da Web3 parecem preferir comprar a panela enquanto descartam o ganso.
A razão para isso não é complicada. A maioria dos produtos Web3 AI se baseiam em estruturas, algoritmos e produtos AI existentes, personalizando-os para seus propósitos. Na verdade, os princípios técnicos por trás das diferentes estruturas de AI cripto não são muito diferentes. Como a própria tecnologia carece de diferenciação, a atenção se volta para a marca, cenários de aplicação e outras distinções superficiais. Como resultado, até pequenos ajustes na estrutura de AI se tornam a base para suportar vários tokens, levando a uma bolha de estrutura dentro dos ecossistemas de agentes de AI cripto.
Como não há necessidade de investir pesado em dados de treinamento ou algoritmos, diferenciar frameworks pelo nome torna-se especialmente crucial. Mesmo uma estrutura acessível como o DeepSeek V3 ainda exige custos significativos em termos de energia da GPU, eletricidade e esforço.
De certa forma, isso se alinha com a tendência recente da Web3: as plataformas que emitem tokens geralmente são mais valiosas do que os próprios tokens. Projetos como Pump.Fun e Hyperliquid exemplificam isso. Originalmente, os Agentes deveriam representar aplicativos e ativos, mas as estruturas emissoras de Agentes agora se tornaram as commodities mais quentes.
Isso reflete uma forma de ancoragem de valor. Como os Agentes não possuem diferenciação, os frameworks para emissão de Agentes se tornam mais estáveis e criam um efeito de drenagem de valor para a emissão de ativos. Isso marca a versão 1.0 da integração de cripto e Agentes de IA.
A versão 2.0 está agora emergindo, exemplificada pela convergência de DeFi e Agentes de IA. Embora o conceito de DeFAI possa ter sido desencadeado pelo hype do mercado, uma análise mais aprofundada das seguintes tendências sugere o contrário:
Dentro desse cenário de transformação DeFi, a IA está remodelando a lógica fundamental da DeFi. Anteriormente, a lógica central da DeFi era verificar a viabilidade dos contratos inteligentes. Agora, os Agentes de IA estão alterando a lógica de fabricação da DeFi. Você não precisa mais entender DeFi para criar produtos DeFi. Isso representa um passo além da abstração de cadeias, fornecendo um empoderamento fundamental mais profundo.
A era em que todos podem ser programadores está no horizonte. Cálculos complexos podem ser terceirizados para o LLM e APIs por trás de agentes de IA, permitindo que indivíduos se concentrem exclusivamente em suas ideias. A linguagem natural pode ser transformada eficientemente em lógica de programação.
Este artigo não menciona nenhum token ou estrutura de Crypto AI Agent, pois Cookie.Fun já fez um excelente trabalho - uma plataforma para agregação de informações de Agentes de IA e descoberta de tokens, seguida por estruturas de Agentes de IA e, por fim, a efêmera emergência e desaparecimento de tokens de Agentes. Continuar a listar essas informações aqui seria de pouco valor.
No entanto, através de observações durante este período, o mercado ainda carece de uma discussão significativa sobre para onde os Agentes de IA de Cripto estão apontando. Não podemos continuar focando nos ponteiros; a essência está nas mudanças que estão acontecendo no nível de memória.
É precisamente a capacidade em constante evolução de transformar vários ativos em formas tokenizadas que torna a Cripto tão cativante.