Pentágono Envia 'Melhor e Última Oferta' à Anthropic Sobre Uso Militar do Claude AI: Relatório

robot
Geração do resumo em andamento

(MENAFN- Live Mint) Funcionários do Pentágono na noite de quarta-feira enviaram à Anthropic a sua “melhor e última oferta” nas negociações sobre o uso militar da tecnologia de inteligência artificial da empresa, relatou a CBS News citando fontes familiarizadas com as discussões.

A fonte afirmou que não estava claro de imediato se a nova proposta alterou substancialmente as exigências anteriores do governo ou se a Anthropic tinha concordado com os termos.

As negociações ocorrem antes de um prazo imposto pelo governo, estabelecido pelo Secretário de Defesa Pete Hegseth, que deu à startup de IA até sexta-feira à noite para conceder o que o Pentágono descreve como uso legal completo de sua tecnologia — ou arriscar perder seus negócios com o exército dos EUA.

Risco de perda de contrato e classificação de “risco na cadeia de suprimentos”

Se a Anthropic não cumprir, as consequências podem ir além da perda do contrato com o Pentágono.

Um alto funcionário do Pentágono disse à CBS News que a empresa enfrentaria “não apenas a perda de negócios, mas também a classificação como risco na cadeia de suprimentos.”

A fonte citada afirmou que oficiais do Pentágono estão considerando invocar a Lei de Produção de Defesa para obrigar a Anthropic a cumprir as exigências militares. Essa medida potencialmente daria ao governo maior autoridade para exigir cooperação em nome da segurança nacional.

A Anthropic recebeu um contrato de 200 milhões de dólares do Pentágono em julho para desenvolver capacidades de inteligência artificial destinadas a avançar os objetivos de segurança nacional dos EUA.

** Também Leia** | Explicado | Por que o Pentágono está em conflito com a Anthropic sobre o uso de Claude? A disputa centra-se em limites para o uso de IA

No centro das negociações está o modelo de IA da Anthropic, Claude.

A fonte citada também afirmou que a Anthropic tem pedido repetidamente aos oficiais de defesa que concordem com limites específicos que restringiriam o Claude de realizar vigilância em massa dos americanos. Oficiais da administração Trump responderam que tal vigilância é ilegal e que o Pentágono opera dentro dos limites da lei.

O CEO da Anthropic, Dario Amodei, também pressionou para garantir que o Claude não seja usado para tomar decisões finais de direcionamento em operações militares sem supervisão humana, segundo uma fonte familiarizada com as negociações, afirmou a fonte.

A fonte observou que o Claude, como outros sistemas de IA, não está imune a alucinações e pode não ser confiável o suficiente para evitar erros potencialmente letais, incluindo escaladas não intencionais ou falhas na missão sem julgamento humano.

Prazo definido para sexta-feira

Durante uma reunião no Pentágono na manhã de terça-feira, Hegseth deu a Amodei até sexta-feira para fornecer um documento assinado que conceda acesso total ao modelo de IA da Anthropic.

** Também Leia** | Babak Hodjat, da Cognizant, tranquiliza sobre preocupações com impacto da IA induzido pela Anthropic

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)