(MENAFN- The Conversation) A disputa pública entre o Departamento de Defesa dos EUA (também conhecido atualmente como Departamento de Guerra) e o seu fornecedor de tecnologia de IA, Anthropic, é incomum por opor o poder estatal ao poder corporativo. Pelo menos no setor militar, estes costumam ser aliados próximos.
A origem desta discordância remonta a meses atrás, após críticas repetidas do “czar” da IA e criptomoedas de Donald Trump, David Sacks, sobre as supostas posições woke da empresa.
Mas as tensões aumentaram após relatos na mídia de que a tecnologia da Anthropic teria sido usada no sequestro violento do ex-presidente venezuelano Nicolás Maduro, pelos militares dos EUA, em janeiro de 2026. A alegação é que isso causou descontentamento dentro da empresa, sediada em São Francisco.
A Anthropic negou essas acusações, com insiders sugerindo que não encontraram nem levantaram violações de suas políticas após a operação com Maduro.
No entanto, o secretário de Defesa dos EUA, Pete Hegseth, deu um ultimato à Anthropic. A menos que a empresa relaxe sua política de limites éticos até às 17h01, horário de Washington, na sexta-feira, 27 de fevereiro, o governo dos EUA sugeriu que poderia invocar a Lei de Defesa de 1950. Isso permitiria ao Departamento de Defesa apropriar-se do uso dessa tecnologia conforme desejar.
Ao mesmo tempo, a Anthropic poderia ser classificada como um risco na cadeia de suprimentos, colocando seus contratos governamentais em perigo. Essas medidas extraordinárias podem parecer contraditórias, mas estão alinhadas com a abordagem atual da administração dos EUA, que favorece gestos grandiosos e ambiguidade nas políticas.
No centro da disputa está a questão de como o grande modelo de linguagem (LLM) Claude, da Anthropic, é utilizado em um contexto militar. Em diversos setores, Claude realiza tarefas automatizadas como escrita, codificação, raciocínio e análise.
Em julho de 2024, a empresa de análise de dados dos EUA, Palantir, anunciou uma parceria com a Anthropic para “integrar os modelos de IA Claude nas operações de inteligência e defesa do governo dos EUA”. Em julho de 2025, a Anthropic assinou um contrato de 200 milhões de dólares com o DoD, estipulando certos termos através de sua “política de uso aceitável”.
Estes, por exemplo, proibiriam o uso de Claude em vigilância em massa de cidadãos americanos ou em sistemas de armas totalmente autônomas, que, uma vez ativados, podem selecionar e atacar alvos sem envolvimento humano.
Segundo a Anthropic, qualquer um desses usos violaria sua definição de “IA responsável”. Hegseth e o DoD reagiram, caracterizando tais limites como excessivamente restritivos em um ambiente geopolítico marcado por incerteza, instabilidade e linhas tênues.
A IA responsável, insistem, deve abranger “qualquer uso legal” dos modelos de IA pelo exército dos EUA. Um memorando de Hegseth, emitido em 9 de janeiro de 2026, afirmou:
O memorando instruiu que o termo “qualquer uso legal” deve ser incorporado em futuros contratos do DoD para serviços de IA dentro de 180 dias.
Concorrentes da Anthropic estão se preparando
As linhas vermelhas da Anthropic não excluem a vigilância em massa de comunidades humanas em geral — apenas de cidadãos americanos. E, embora limite-se a armas totalmente autônomas, os múltiplos usos evolutivos da IA para informar, acelerar ou ampliar a violência, de maneiras que limitam severamente oportunidades de restrição moral, não são mencionados em sua política de uso aceitável.
Atualmente, a Anthropic possui uma vantagem competitiva. Seu modelo LLM está integrado às interfaces do governo dos EUA com níveis de autorização suficientes para oferecer um produto superior. Mas seus concorrentes estão se preparando.
A Palantir expandiu significativamente seus negócios com o Pentágono nos últimos meses, criando mais modelos de IA.
Enquanto isso, o Google atualizou recentemente suas diretrizes éticas, abandonando a promessa de não usar IA para desenvolvimento de armas e vigilância. A OpenAI também modificou sua declaração de missão, removendo “segurança” como valor central, e a xAI de Elon Musk (criadora do chatbot Grok) concordou com o padrão de “qualquer uso legal” do Pentágono.
Um ponto de teste para a IA militar
Para C.S. Lewis, a coragem era a virtude principal, pois representa “a forma de toda virtude no ponto de teste”. A Anthropic agora enfrenta esse momento de prova.
Em 24 de fevereiro, a empresa anunciou a última atualização de sua política de escalonamento responsável — “a estrutura voluntária que usamos para mitigar riscos catastróficos de sistemas de IA”. Segundo a revista Time, as mudanças incluem “eliminar a promessa de não lançar modelos de IA se a Anthropic não puder garantir mitigação adequada de riscos com antecedência”.
O diretor de ciência da Anthropic, Jared Kaplan, disse à Time: “Não sentimos, com o avanço rápido da IA, que fosse sensato fazer compromissos unilaterais… se os concorrentes estão avançando rapidamente.”
Linguagem ética permeia os comunicados de empresas do Vale do Silício, ansiosas por se distinguir de “atores mal-intencionados” na Rússia, China e outros lugares. Mas palavras e ações éticas nem sempre coincidem, pois as ações muitas vezes envolvem custos reais.
Que esse espetáculo altamente público esteja acontecendo neste momento talvez não seja por acaso. No início de fevereiro, representantes de muitos países — mas não dos EUA — se reuniram pela terceira vez para buscar formas de concordar sobre “IA responsável” no domínio militar. E, de 2 a 6 de março, a ONU realizará sua mais recente conferência para discutir como limitar melhor o uso de tecnologias emergentes em sistemas de armas autônomas letais.
Debates legais e éticos sobre o papel da tecnologia de IA no futuro da guerra são essenciais e estão atrasados. A Anthropic merece crédito por, aparentemente, resistir aos esforços do exército dos EUA de minar suas diretrizes éticas. Mas o papel da IA provavelmente será testado em muitos mais conflitos antes que um consenso seja alcançado.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Anthropic V O Exército dos EUA: O que esta disputa pública diz sobre o uso de IA na guerra
(MENAFN- The Conversation) A disputa pública entre o Departamento de Defesa dos EUA (também conhecido atualmente como Departamento de Guerra) e o seu fornecedor de tecnologia de IA, Anthropic, é incomum por opor o poder estatal ao poder corporativo. Pelo menos no setor militar, estes costumam ser aliados próximos.
A origem desta discordância remonta a meses atrás, após críticas repetidas do “czar” da IA e criptomoedas de Donald Trump, David Sacks, sobre as supostas posições woke da empresa.
Mas as tensões aumentaram após relatos na mídia de que a tecnologia da Anthropic teria sido usada no sequestro violento do ex-presidente venezuelano Nicolás Maduro, pelos militares dos EUA, em janeiro de 2026. A alegação é que isso causou descontentamento dentro da empresa, sediada em São Francisco.
A Anthropic negou essas acusações, com insiders sugerindo que não encontraram nem levantaram violações de suas políticas após a operação com Maduro.
No entanto, o secretário de Defesa dos EUA, Pete Hegseth, deu um ultimato à Anthropic. A menos que a empresa relaxe sua política de limites éticos até às 17h01, horário de Washington, na sexta-feira, 27 de fevereiro, o governo dos EUA sugeriu que poderia invocar a Lei de Defesa de 1950. Isso permitiria ao Departamento de Defesa apropriar-se do uso dessa tecnologia conforme desejar.
Ao mesmo tempo, a Anthropic poderia ser classificada como um risco na cadeia de suprimentos, colocando seus contratos governamentais em perigo. Essas medidas extraordinárias podem parecer contraditórias, mas estão alinhadas com a abordagem atual da administração dos EUA, que favorece gestos grandiosos e ambiguidade nas políticas.
No centro da disputa está a questão de como o grande modelo de linguagem (LLM) Claude, da Anthropic, é utilizado em um contexto militar. Em diversos setores, Claude realiza tarefas automatizadas como escrita, codificação, raciocínio e análise.
Em julho de 2024, a empresa de análise de dados dos EUA, Palantir, anunciou uma parceria com a Anthropic para “integrar os modelos de IA Claude nas operações de inteligência e defesa do governo dos EUA”. Em julho de 2025, a Anthropic assinou um contrato de 200 milhões de dólares com o DoD, estipulando certos termos através de sua “política de uso aceitável”.
Estes, por exemplo, proibiriam o uso de Claude em vigilância em massa de cidadãos americanos ou em sistemas de armas totalmente autônomas, que, uma vez ativados, podem selecionar e atacar alvos sem envolvimento humano.
Segundo a Anthropic, qualquer um desses usos violaria sua definição de “IA responsável”. Hegseth e o DoD reagiram, caracterizando tais limites como excessivamente restritivos em um ambiente geopolítico marcado por incerteza, instabilidade e linhas tênues.
A IA responsável, insistem, deve abranger “qualquer uso legal” dos modelos de IA pelo exército dos EUA. Um memorando de Hegseth, emitido em 9 de janeiro de 2026, afirmou:
O memorando instruiu que o termo “qualquer uso legal” deve ser incorporado em futuros contratos do DoD para serviços de IA dentro de 180 dias.
Concorrentes da Anthropic estão se preparando
As linhas vermelhas da Anthropic não excluem a vigilância em massa de comunidades humanas em geral — apenas de cidadãos americanos. E, embora limite-se a armas totalmente autônomas, os múltiplos usos evolutivos da IA para informar, acelerar ou ampliar a violência, de maneiras que limitam severamente oportunidades de restrição moral, não são mencionados em sua política de uso aceitável.
Atualmente, a Anthropic possui uma vantagem competitiva. Seu modelo LLM está integrado às interfaces do governo dos EUA com níveis de autorização suficientes para oferecer um produto superior. Mas seus concorrentes estão se preparando.
A Palantir expandiu significativamente seus negócios com o Pentágono nos últimos meses, criando mais modelos de IA.
Enquanto isso, o Google atualizou recentemente suas diretrizes éticas, abandonando a promessa de não usar IA para desenvolvimento de armas e vigilância. A OpenAI também modificou sua declaração de missão, removendo “segurança” como valor central, e a xAI de Elon Musk (criadora do chatbot Grok) concordou com o padrão de “qualquer uso legal” do Pentágono.
Um ponto de teste para a IA militar
Para C.S. Lewis, a coragem era a virtude principal, pois representa “a forma de toda virtude no ponto de teste”. A Anthropic agora enfrenta esse momento de prova.
Em 24 de fevereiro, a empresa anunciou a última atualização de sua política de escalonamento responsável — “a estrutura voluntária que usamos para mitigar riscos catastróficos de sistemas de IA”. Segundo a revista Time, as mudanças incluem “eliminar a promessa de não lançar modelos de IA se a Anthropic não puder garantir mitigação adequada de riscos com antecedência”.
O diretor de ciência da Anthropic, Jared Kaplan, disse à Time: “Não sentimos, com o avanço rápido da IA, que fosse sensato fazer compromissos unilaterais… se os concorrentes estão avançando rapidamente.”
Linguagem ética permeia os comunicados de empresas do Vale do Silício, ansiosas por se distinguir de “atores mal-intencionados” na Rússia, China e outros lugares. Mas palavras e ações éticas nem sempre coincidem, pois as ações muitas vezes envolvem custos reais.
Que esse espetáculo altamente público esteja acontecendo neste momento talvez não seja por acaso. No início de fevereiro, representantes de muitos países — mas não dos EUA — se reuniram pela terceira vez para buscar formas de concordar sobre “IA responsável” no domínio militar. E, de 2 a 6 de março, a ONU realizará sua mais recente conferência para discutir como limitar melhor o uso de tecnologias emergentes em sistemas de armas autônomas letais.
Debates legais e éticos sobre o papel da tecnologia de IA no futuro da guerra são essenciais e estão atrasados. A Anthropic merece crédito por, aparentemente, resistir aos esforços do exército dos EUA de minar suas diretrizes éticas. Mas o papel da IA provavelmente será testado em muitos mais conflitos antes que um consenso seja alcançado.