Le Pentagone envoie 'la meilleure et dernière offre' à Anthropic concernant l'utilisation militaire de Claude AI : Rapport

robot
Création du résumé en cours

(MENAFN- Live Mint) Les responsables du Pentagone ont envoyé mercredi soir à Anthropic leur « meilleure et dernière offre » lors des négociations concernant l’utilisation par l’armée de la technologie d’intelligence artificielle de l’entreprise, rapporte CBS News en citant des sources proches des discussions.

Le média indique qu’il n’était pas immédiatement clair si la nouvelle proposition modifiait substantiellement les exigences précédentes du gouvernement ou si Anthropic avait accepté les termes.

Les négociations interviennent avant une échéance fixée par le secrétaire à la Défense Pete Hegseth, qui a donné à la startup d’IA jusqu’à vendredi soir pour accorder ce que le Pentagone décrit comme une utilisation pleinement légale de sa technologie — sous peine de perdre ses contrats avec l’armée américaine.

Menace de perte de contrat et étiquette « risque de chaîne d’approvisionnement »

Si Anthropic ne se conforme pas, les conséquences pourraient aller au-delà de la simple perte de son contrat avec le Pentagone.

Un haut responsable du Pentagone a déclaré à CBS News que l’entreprise pourrait faire face « non seulement à la perte de ses affaires mais aussi à l’étiquetage comme un risque pour la chaîne d’approvisionnement. »

Selon des sources citées par le média, des responsables du Pentagone envisagent d’invoquer la loi sur la production de défense pour contraindre Anthropic à respecter les exigences militaires. Cette démarche pourrait donner au gouvernement une autorité élargie pour exiger la coopération dans l’intérêt de la sécurité nationale.

Anthropic a reçu un contrat de 200 millions de dollars du Pentagone en juillet pour développer des capacités d’intelligence artificielle destinées à faire avancer les objectifs de sécurité nationale des États-Unis.

** Lire aussi ** | Explication | Pourquoi le Pentagone se dispute-t-il avec Anthropic concernant l’utilisation de Claude ? La controverse porte sur les garde-fous pour l’utilisation de l’IA

Au cœur des négociations se trouve le modèle d’IA d’Anthropic, Claude.

Le média, citant des sources, indique également qu’Anthropic a à plusieurs reprises demandé aux responsables de la défense d’accepter des garde-fous spécifiques qui limiteraient Claude dans la surveillance de masse des Américains. Des responsables de l’administration Trump ont répliqué que cette surveillance est illégale et que le Pentagone opère dans le cadre de la loi.

Le PDG d’Anthropic, Dario Amodei, aurait également insisté pour que Claude ne soit pas utilisé pour prendre des décisions de ciblage finales dans les opérations militaires sans supervision humaine, selon une source familière avec les négociations, rapporte le média.

La source a noté que Claude, comme d’autres systèmes d’IA, n’est pas à l’abri des hallucinations et pourrait ne pas être suffisamment fiable pour éviter des erreurs potentiellement mortelles, y compris une escalade involontaire ou un échec de mission sans jugement humain.

Date limite fixée à vendredi

Lors d’une réunion au Pentagone mardi matin, Hegseth a donné à Amodei jusqu’à vendredi pour fournir un document signé accordant un accès complet au modèle d’IA d’Anthropic.

** Lire aussi ** | Babak Hodjat de Cognizant rassure sur l’impact de l’IA induit par Anthropic

MENAFN26022026007365015876ID1110795910

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)