(MENAFN- Live Mint) Funcionários do Pentágono na noite de quarta-feira enviaram à Anthropic a sua “melhor e última oferta” nas negociações sobre o uso militar da tecnologia de inteligência artificial da empresa, relatou a CBS News citando fontes familiarizadas com as discussões.
A fonte afirmou que não estava claro de imediato se a nova proposta alterou substancialmente as exigências anteriores do governo ou se a Anthropic tinha concordado com os termos.
As negociações ocorrem antes de um prazo imposto pelo governo, estabelecido pelo Secretário de Defesa Pete Hegseth, que deu à startup de IA até sexta-feira à noite para conceder o que o Pentágono descreve como uso legal completo de sua tecnologia — ou arriscar perder seus negócios com o exército dos EUA.
Risco de perda de contrato e classificação de “risco na cadeia de suprimentos”
Se a Anthropic não cumprir, as consequências podem ir além da perda do contrato com o Pentágono.
Um alto funcionário do Pentágono disse à CBS News que a empresa enfrentaria “não apenas a perda de negócios, mas também a classificação como risco na cadeia de suprimentos.”
A fonte citada afirmou que oficiais do Pentágono estão considerando invocar a Lei de Produção de Defesa para obrigar a Anthropic a cumprir as exigências militares. Essa medida potencialmente daria ao governo maior autoridade para exigir cooperação em nome da segurança nacional.
A Anthropic recebeu um contrato de 200 milhões de dólares do Pentágono em julho para desenvolver capacidades de inteligência artificial destinadas a avançar os objetivos de segurança nacional dos EUA.
** Também Leia** | Explicado | Por que o Pentágono está em conflito com a Anthropic sobre o uso de Claude? A disputa centra-se em limites para o uso de IA
No centro das negociações está o modelo de IA da Anthropic, Claude.
A fonte citada também afirmou que a Anthropic tem pedido repetidamente aos oficiais de defesa que concordem com limites específicos que restringiriam o Claude de realizar vigilância em massa dos americanos. Oficiais da administração Trump responderam que tal vigilância é ilegal e que o Pentágono opera dentro dos limites da lei.
O CEO da Anthropic, Dario Amodei, também pressionou para garantir que o Claude não seja usado para tomar decisões finais de direcionamento em operações militares sem supervisão humana, segundo uma fonte familiarizada com as negociações, afirmou a fonte.
A fonte observou que o Claude, como outros sistemas de IA, não está imune a alucinações e pode não ser confiável o suficiente para evitar erros potencialmente letais, incluindo escaladas não intencionais ou falhas na missão sem julgamento humano.
Prazo definido para sexta-feira
Durante uma reunião no Pentágono na manhã de terça-feira, Hegseth deu a Amodei até sexta-feira para fornecer um documento assinado que conceda acesso total ao modelo de IA da Anthropic.
** Também Leia** | Babak Hodjat, da Cognizant, tranquiliza sobre preocupações com impacto da IA induzido pela Anthropic
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Pentágono Envia 'Melhor e Última Oferta' à Anthropic Sobre Uso Militar do Claude AI: Relatório
(MENAFN- Live Mint) Funcionários do Pentágono na noite de quarta-feira enviaram à Anthropic a sua “melhor e última oferta” nas negociações sobre o uso militar da tecnologia de inteligência artificial da empresa, relatou a CBS News citando fontes familiarizadas com as discussões.
A fonte afirmou que não estava claro de imediato se a nova proposta alterou substancialmente as exigências anteriores do governo ou se a Anthropic tinha concordado com os termos.
As negociações ocorrem antes de um prazo imposto pelo governo, estabelecido pelo Secretário de Defesa Pete Hegseth, que deu à startup de IA até sexta-feira à noite para conceder o que o Pentágono descreve como uso legal completo de sua tecnologia — ou arriscar perder seus negócios com o exército dos EUA.
Risco de perda de contrato e classificação de “risco na cadeia de suprimentos”
Se a Anthropic não cumprir, as consequências podem ir além da perda do contrato com o Pentágono.
Um alto funcionário do Pentágono disse à CBS News que a empresa enfrentaria “não apenas a perda de negócios, mas também a classificação como risco na cadeia de suprimentos.”
A fonte citada afirmou que oficiais do Pentágono estão considerando invocar a Lei de Produção de Defesa para obrigar a Anthropic a cumprir as exigências militares. Essa medida potencialmente daria ao governo maior autoridade para exigir cooperação em nome da segurança nacional.
A Anthropic recebeu um contrato de 200 milhões de dólares do Pentágono em julho para desenvolver capacidades de inteligência artificial destinadas a avançar os objetivos de segurança nacional dos EUA.
** Também Leia** | Explicado | Por que o Pentágono está em conflito com a Anthropic sobre o uso de Claude? A disputa centra-se em limites para o uso de IA
No centro das negociações está o modelo de IA da Anthropic, Claude.
A fonte citada também afirmou que a Anthropic tem pedido repetidamente aos oficiais de defesa que concordem com limites específicos que restringiriam o Claude de realizar vigilância em massa dos americanos. Oficiais da administração Trump responderam que tal vigilância é ilegal e que o Pentágono opera dentro dos limites da lei.
O CEO da Anthropic, Dario Amodei, também pressionou para garantir que o Claude não seja usado para tomar decisões finais de direcionamento em operações militares sem supervisão humana, segundo uma fonte familiarizada com as negociações, afirmou a fonte.
A fonte observou que o Claude, como outros sistemas de IA, não está imune a alucinações e pode não ser confiável o suficiente para evitar erros potencialmente letais, incluindo escaladas não intencionais ou falhas na missão sem julgamento humano.
Prazo definido para sexta-feira
Durante uma reunião no Pentágono na manhã de terça-feira, Hegseth deu a Amodei até sexta-feira para fornecer um documento assinado que conceda acesso total ao modelo de IA da Anthropic.
** Também Leia** | Babak Hodjat, da Cognizant, tranquiliza sobre preocupações com impacto da IA induzido pela Anthropic