Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Acabei de ler alguns artigos investigativos sobre o que aconteceu no final de fevereiro, durante a Operação Epic Fury, e honestamente, tudo parece uma aula de como a guerra moderna realmente funciona agora—exceto que ninguém está realmente falando sobre a infraestrutura por trás.
Aqui está o que me chamou a atenção: isto não foi apenas mais uma operação militar. Foi basicamente um teste de resistência de IA numa zona de guerra ao vivo. Todo o evento dependia de comprimir o que os militares chamam de ciclo sensor-decide-disparador em minutos, às vezes segundos. Quem conseguir quebrar essa compressão terá a vantagem geopolítica na próxima década.
Deixe-me explicar quem são os atores, porque é aí que fica interessante.
A OpenAI basicamente passou de "não fazemos coisas militares" para se tornar o que pode ser a assinatura SaaS mais cara do Pentágono em cerca de dois anos. Sam Altman anunciou que tinham fechado um acordo para implantar modelos GPT em redes classificadas para análise de inteligência, tradução, simulações de combate. As linhas vermelhas públicas parecem razoáveis—sem vigilância doméstica em massa, humanos permanecem no ciclo de decisões letais. Mas aqui está o ponto: alimentar imagens de satélite, inteligência de sinais, streams de redes sociais nesses modelos e tê-los classificando alvos, prevendo movimentos, avaliando riscos? Isso é basicamente um cérebro de campo de batalha. E aparentemente vale centenas de milhões.
A Anthropoic seguiu o caminho oposto. Mantiveram-se firmes em limites éticos mais rígidos durante as negociações com o Pentágono e foram completamente demolidos por isso. O Secretário de Defesa literalmente os rotulou de "risco na cadeia de suprimentos"—o mesmo rótulo usado anteriormente para empresas chinesas de tecnologia. Esse rótulo basicamente significava que os contratantes militares tinham seis meses para remover Claude de seus sistemas. A mensagem foi clara para todos que estavam assistindo: não desafie o que o Pentágono quer.
Mas aqui é que está o verdadeiro poder: Microsoft e Google. Se as empresas de IA são o cérebro, esses dois são o sistema nervoso central real. Sem a infraestrutura de nuvem deles, todos esses modelos são apenas slides de PowerPoint.
A Microsoft Azure viu o uso de machine learning pelo exército israelense subir 64 vezes em poucos meses, começando no final de 2023. Eles estão processando volumes de dados equivalentes à Biblioteca do Congresso inteira. Está sendo usado para transcrever comunicações, processar dados de vigilância e trabalhar com sistemas locais para gerar automaticamente listas de alvos. A Microsoft levou alguma crítica e reduziu certos serviços, mas os contratos principais de IA militar continuaram a rodar.
O Projeto Nimbus do Google é ainda mais carregado politicamente—US$1,2 bilhão em infraestrutura de nuvem para Israel desde 2021. Funcionários protestaram contra isso por anos. A infraestrutura apoia simulações de campo de batalha, fusão de inteligência, planejamento de alvos complexos. O Google continua dizendo que não é para uso militar ofensivo, mas todo mundo na indústria sabe que essa é a funcionalidade principal.
Agora, aqui é que fica realmente perturbador. Israel tem operado sistemas como Lavender, Gospel e "Where's Daddy" que basicamente automatizam a identificação de alvos em grande escala. Lavender mapeou padrões comportamentais de quase todos os homens adultos em Gaza, atribuindo "pontuações de militância" numa escala de 1 a 100, identificando 37.000 alvos suspeitos. Gospel marca edifícios para bombardeio. "Where's Daddy" rastreia quando os alvos voltam para casa com suas famílias para maximizar o impacto de vítimas. A revisão humana aparentemente leva cerca de 30 segundos por alvo.
A parte assustadora? A lógica técnica desses sistemas é portátil. Se você tem dados de comunicação, trajetórias de localização, redes sociais de qualquer região, teoricamente pode aplicar a mesma lógica de fábrica de matar algoritmicamente a qualquer conjunto de alvos. Alguns analistas acham que foi exatamente isso que aconteceu durante a Epic Fury—uma guerra algorítmica ao estilo Gaza escalada até Teerã.
Do ponto de vista de mercado, o que está acontecendo é selvagem. Está se formando um novo complexo IA-Nuvem-Defesa, onde o binário tradicional de ações de tecnologia versus defesa não se aplica mais. As empresas dispostas a negociar questões éticas estão recebendo os contratos gigantescos. As que mantêm princípios rígidos são rotuladas como riscos de segurança e ficam de fora. Enquanto isso, os gigantes da nuvem absorvem a maior parte do fluxo de caixa real, enquanto carregam bombas-relógio reputacionais e regulatórias cada vez maiores.
A estrutura de incentivos aqui é brutal: quando os contratos vão para quem está mais "alinhado com a segurança nacional", as linhas vermelhas éticas se tornam uma desvantagem competitiva. Isso não é apenas um problema de negócios—é um problema sistêmico que todo futuro empreendedor e investidor acaba aprendendo da pior forma.
E aqui está o que me faz continuar pensando nisso: Epic Fury pode ser apenas o prólogo. Seja o próximo conflito na Estreito de Taiwan, na Europa Oriental ou em outro lugar no Oriente Médio, o ritmo da guerra não será mais definido por contagem de tanques ou artilharia. Será definido por modelos treinados com petabytes de dados classificados e infraestrutura de nuvem conectada a milhares de GPUs.
Antes de continuarmos terceirizando mais cadeias de morte para um punhado de empresas de modelos e nuvem, alguém precisa responder seriamente quem é realmente responsável quando recomendações algorítmicas se transformam em coordenadas de bombardeio. Porque, neste momento, essa questão parece estar sendo sistematicamente evitada.