(MENAFN- Live Mint) Funcionários do Pentágono na noite de quarta-feira enviaram à Anthropic a sua “melhor e última oferta” nas negociações sobre o uso militar da tecnologia de inteligência artificial da empresa, relatou a CBS News citando fontes familiarizadas com as discussões.
A fonte afirmou que não estava claro de imediato se a nova proposta alterou substancialmente as exigências anteriores do governo ou se a Anthropic tinha concordado com os termos.
As negociações ocorrem antes de um prazo imposto pelo governo, estabelecido pelo Secretário de Defesa Pete Hegseth, que deu à startup de IA até sexta-feira à noite para conceder o que o Pentágono descreve como uso legal completo de sua tecnologia — ou arriscar perder seus negócios com o exército dos EUA.
Risco de perda de contrato e classificação de “risco na cadeia de suprimentos”
Se a Anthropic não cumprir, as consequências podem ir além da perda do contrato com o Pentágono.
Um alto funcionário do Pentágono disse à CBS News que a empresa enfrentaria “não apenas a perda de negócios, mas também a classificação como risco na cadeia de suprimentos.”
A fonte citada afirmou que oficiais do Pentágono estão considerando invocar a Lei de Produção de Defesa para obrigar a Anthropic a cumprir as exigências militares. Essa medida potencialmente daria ao governo maior autoridade para exigir cooperação em nome da segurança nacional.
A Anthropic recebeu um contrato de 200 milhões de dólares do Pentágono em julho para desenvolver capacidades de inteligência artificial destinadas a avançar os objetivos de segurança nacional dos EUA.
** Também Leia** | Explicado | Por que o Pentágono está em conflito com a Anthropic sobre o uso de Claude? A disputa centra-se em limites para o uso de IA
No centro das negociações está o modelo de IA da Anthropic, Claude.
A fonte citada também afirmou que a Anthropic tem pedido repetidamente aos oficiais de defesa que concordem com limites específicos que restringiriam o Claude de realizar vigilância em massa dos americanos. Oficiais da administração Trump responderam que tal vigilância é ilegal e que o Pentágono opera dentro dos limites da lei.
O CEO da Anthropic, Dario Amodei, também pressionou para garantir que o Claude não seja usado para tomar decisões finais de direcionamento em operações militares sem supervisão humana, segundo uma fonte familiarizada com as negociações, afirmou a fonte.
A fonte observou que o Claude, como outros sistemas de IA, não está imune a alucinações e pode não ser confiável o suficiente para evitar erros potencialmente letais, incluindo escaladas não intencionais ou falhas na missão sem julgamento humano.
Prazo definido para sexta-feira
Durante uma reunião no Pentágono na manhã de terça-feira, Hegseth deu a Amodei até sexta-feira para fornecer um documento assinado que conceda acesso total ao modelo de IA da Anthropic.
** Também Leia** | Babak Hodjat, da Cognizant, tranquiliza sobre preocupações com impacto da IA induzido pela Anthropic
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Pentágono Envia 'Melhor e Última Oferta' à Anthropic Sobre Uso Militar do Claude AI: Relatório
(MENAFN- Live Mint) Funcionários do Pentágono na noite de quarta-feira enviaram à Anthropic a sua “melhor e última oferta” nas negociações sobre o uso militar da tecnologia de inteligência artificial da empresa, relatou a CBS News citando fontes familiarizadas com as discussões.
A fonte afirmou que não estava claro de imediato se a nova proposta alterou substancialmente as exigências anteriores do governo ou se a Anthropic tinha concordado com os termos.
As negociações ocorrem antes de um prazo imposto pelo governo, estabelecido pelo Secretário de Defesa Pete Hegseth, que deu à startup de IA até sexta-feira à noite para conceder o que o Pentágono descreve como uso legal completo de sua tecnologia — ou arriscar perder seus negócios com o exército dos EUA.
Risco de perda de contrato e classificação de “risco na cadeia de suprimentos”
Se a Anthropic não cumprir, as consequências podem ir além da perda do contrato com o Pentágono.
Um alto funcionário do Pentágono disse à CBS News que a empresa enfrentaria “não apenas a perda de negócios, mas também a classificação como risco na cadeia de suprimentos.”
A fonte citada afirmou que oficiais do Pentágono estão considerando invocar a Lei de Produção de Defesa para obrigar a Anthropic a cumprir as exigências militares. Essa medida potencialmente daria ao governo maior autoridade para exigir cooperação em nome da segurança nacional.
A Anthropic recebeu um contrato de 200 milhões de dólares do Pentágono em julho para desenvolver capacidades de inteligência artificial destinadas a avançar os objetivos de segurança nacional dos EUA.
** Também Leia** | Explicado | Por que o Pentágono está em conflito com a Anthropic sobre o uso de Claude? A disputa centra-se em limites para o uso de IA
No centro das negociações está o modelo de IA da Anthropic, Claude.
A fonte citada também afirmou que a Anthropic tem pedido repetidamente aos oficiais de defesa que concordem com limites específicos que restringiriam o Claude de realizar vigilância em massa dos americanos. Oficiais da administração Trump responderam que tal vigilância é ilegal e que o Pentágono opera dentro dos limites da lei.
O CEO da Anthropic, Dario Amodei, também pressionou para garantir que o Claude não seja usado para tomar decisões finais de direcionamento em operações militares sem supervisão humana, segundo uma fonte familiarizada com as negociações, afirmou a fonte.
A fonte observou que o Claude, como outros sistemas de IA, não está imune a alucinações e pode não ser confiável o suficiente para evitar erros potencialmente letais, incluindo escaladas não intencionais ou falhas na missão sem julgamento humano.
Prazo definido para sexta-feira
Durante uma reunião no Pentágono na manhã de terça-feira, Hegseth deu a Amodei até sexta-feira para fornecer um documento assinado que conceda acesso total ao modelo de IA da Anthropic.
** Também Leia** | Babak Hodjat, da Cognizant, tranquiliza sobre preocupações com impacto da IA induzido pela Anthropic