Detalhes da Disputa Pentagon-Antrópica:
A disputa decorre de um contrato no valor de aproximadamente $200 milhões que a Anthropic assinou para usar o seu modelo de IA Claude em sistemas classificados para o exército dos EUA.
A Anthropic estabeleceu duas "linhas vermelhas" principais:
- Que a IA não seja usada para vigilância em massa de cidadãos americanos.
- Que não seja usada para **sistemas de armas totalmente autónomas** (armas que tomam decisões letais sem supervisão humana)
No entanto, o Pentágono exigiu o uso ilimitado da IA para "todos os fins legítimos" e não aceitou essas restrições. O Secretário de Defesa Pete Hegseth obrigou a empresa a cumprir até uma deadline de sexta-feira à noite (26 de fevereiro de 2026).
Quando não foi alcançado acordo:
- O Presidente Trump ordenou que todas as agências federais **interrompessem imediatamente** a tecnologia da Anthropic (dando ao Pentágono um período de transição de 6 meses).
- Hegseth declarou a Anthropic como um "risco na cadeia de abastecimento para a segurança nacional"—uma sanção normalmente usada contra ameaças estrangeiras; ela também proíbe os contratantes militares de fazer negócios com a empresa.
A Anthropic chamou a decisão de "inválida legalmente e que estabelece precedentes" e anunciou que levaria a questão ao tribunal. O CEO Dario Amodei enfatizou que não recuaria de sua posição.
Por fim, o Pentágono assinou um novo acordo com a OpenAI aceitando restrições semelhantes. Este evento marcou um ponto de viragem importante sobre quem deve definir limites ao uso militar da IA—empresas ou governo?
Resumindo: O que começou como uma discussão sobre preocupações de segurança escalou para pressão política e sanções. O conflito entre ética da IA e segurança nacional continua.
#TrumpordersfederalbanonAnthropicAI
A disputa decorre de um contrato no valor de aproximadamente $200 milhões que a Anthropic assinou para usar o seu modelo de IA Claude em sistemas classificados para o exército dos EUA.
A Anthropic estabeleceu duas "linhas vermelhas" principais:
- Que a IA não seja usada para vigilância em massa de cidadãos americanos.
- Que não seja usada para **sistemas de armas totalmente autónomas** (armas que tomam decisões letais sem supervisão humana)
No entanto, o Pentágono exigiu o uso ilimitado da IA para "todos os fins legítimos" e não aceitou essas restrições. O Secretário de Defesa Pete Hegseth obrigou a empresa a cumprir até uma deadline de sexta-feira à noite (26 de fevereiro de 2026).
Quando não foi alcançado acordo:
- O Presidente Trump ordenou que todas as agências federais **interrompessem imediatamente** a tecnologia da Anthropic (dando ao Pentágono um período de transição de 6 meses).
- Hegseth declarou a Anthropic como um "risco na cadeia de abastecimento para a segurança nacional"—uma sanção normalmente usada contra ameaças estrangeiras; ela também proíbe os contratantes militares de fazer negócios com a empresa.
A Anthropic chamou a decisão de "inválida legalmente e que estabelece precedentes" e anunciou que levaria a questão ao tribunal. O CEO Dario Amodei enfatizou que não recuaria de sua posição.
Por fim, o Pentágono assinou um novo acordo com a OpenAI aceitando restrições semelhantes. Este evento marcou um ponto de viragem importante sobre quem deve definir limites ao uso militar da IA—empresas ou governo?
Resumindo: O que começou como uma discussão sobre preocupações de segurança escalou para pressão política e sanções. O conflito entre ética da IA e segurança nacional continua.
#TrumpordersfederalbanonAnthropicAI























