(MENAFN- Live Mint) Pentagonbeamte haben am Mittwochabend Anthropic ihr „beste und endgültige Angebot“ in den Verhandlungen über die Nutzung der künstlichen Intelligenz-Technologie des Unternehmens durch das Militär unterbreitet, berichtete CBS News unter Berufung auf mit den Diskussionen vertraute Quellen.
Die Nachrichtenagentur erklärte, es sei zunächst unklar, ob der neue Vorschlag die bisherigen Forderungen der Regierung wesentlich verändert habe oder ob Anthropic den Bedingungen zugestimmt habe.
Die Gespräche finden vor einer von der Regierung gesetzten Frist statt, die vom Verteidigungsminister Pete Hegseth gesetzt wurde. Er hat dem KI-Startup bis Freitagabend Zeit gegeben, die vom Pentagon als vollständige rechtmäßige Nutzung seiner Technologie bezeichnet wird – andernfalls droht der Verlust der Geschäftsbeziehung mit dem US-Militär.
Vertragsverlust und „Lieferkettenrisiko“-Label
Wenn Anthropic nicht kooperiert, könnten die Konsequenzen über den Verlust des Pentagon-Auftrags hinausgehen.
Ein hochrangiger Pentagon-Beamter sagte CBS News, das Unternehmen würde „nicht nur den Verlust des Geschäfts, sondern auch die Kennzeichnung als Lieferkettenrisiko“ drohen.
Die Nachrichtenagentur berichtete unter Berufung auf Quellen, dass Pentagon-Vertreter erwägen, den Defense Production Act zu aktivieren, um Anthropic zur Einhaltung der militärischen Forderungen zu zwingen. Dieser Schritt würde der Regierung möglicherweise erweiterte Befugnisse geben, um im Interesse der nationalen Sicherheit Kooperationen zu erzwingen.
Anthropic erhielt im Juli einen Auftrag im Wert von 200 Millionen US-Dollar vom Pentagon, um KI-Fähigkeiten zu entwickeln, die darauf abzielen, die nationalen Sicherheitsziele der USA voranzutreiben.
** Auch lesen** | Erklärung | Warum streitet das Pentagon mit Anthropic um die Nutzung von Claude? Streitpunkt sind Sicherheitsvorkehrungen für den KI-Einsatz
Im Mittelpunkt der Verhandlungen steht Anthropic’s KI-Modell, Claude.
Die Nachrichtenagentur berichtete unter Berufung auf Quellen auch, dass Anthropic wiederholt von Verteidigungsbeamten verlangt habe, bestimmte Sicherheitsvorkehrungen zu vereinbaren, die Claude daran hindern würden, Massenüberwachung Amerikaner durchzuführen. Vertreter der Trump-Administration widersprachen, dass eine solche Überwachung illegal sei und dass das Pentagon im Rahmen des Gesetzes operiere.
Der CEO von Anthropic, Dario Amodei, hat laut einer mit den Verhandlungen vertrauten Quelle auch darauf gedrängt, sicherzustellen, dass Claude nicht ohne menschliche Aufsicht in militärischen Operationen für endgültige Zielentscheidungen verwendet wird, so die Berichterstattung.
Die Quelle wies darauf hin, dass Claude, wie andere KI-Systeme, nicht immun gegen Halluzinationen ist und möglicherweise nicht zuverlässig genug ist, um potenziell tödliche Fehler zu vermeiden, einschließlich unbeabsichtigter Eskalationen oder Missionsausfälle ohne menschliches Urteilsvermögen.
Frist bis Freitag gesetzt
Bei einem Treffen im Pentagon am Dienstagmorgen gab Hegseth Amodei bis Freitag Zeit, ein unterschriebenes Dokument vorzulegen, das den vollständigen Zugriff auf Anthropic’s KI-Modell gewährt.
** Auch lesen** | Cognizants Babak Hodjat beruhigt Bedenken hinsichtlich der durch Anthropic verursachten KI-Auswirkungen
MENAFN26022026007365015876ID1110795910
Original anzeigen
Diese Seite kann Inhalte Dritter enthalten, die ausschließlich zu Informationszwecken bereitgestellt werden (keine Zusicherungen oder Garantien), und sie sind nicht als Billigung der darin geäußerten Ansichten durch Gate oder als finanzielle bzw. fachliche Beratung zu verstehen. Weitere Informationen finden Sie im Haftungsausschluss.
Pentagon sendet 'beste und endgültige Angebot' an Anthropic für militärische Nutzung von Claude AI: Bericht
(MENAFN- Live Mint) Pentagonbeamte haben am Mittwochabend Anthropic ihr „beste und endgültige Angebot“ in den Verhandlungen über die Nutzung der künstlichen Intelligenz-Technologie des Unternehmens durch das Militär unterbreitet, berichtete CBS News unter Berufung auf mit den Diskussionen vertraute Quellen.
Die Nachrichtenagentur erklärte, es sei zunächst unklar, ob der neue Vorschlag die bisherigen Forderungen der Regierung wesentlich verändert habe oder ob Anthropic den Bedingungen zugestimmt habe.
Die Gespräche finden vor einer von der Regierung gesetzten Frist statt, die vom Verteidigungsminister Pete Hegseth gesetzt wurde. Er hat dem KI-Startup bis Freitagabend Zeit gegeben, die vom Pentagon als vollständige rechtmäßige Nutzung seiner Technologie bezeichnet wird – andernfalls droht der Verlust der Geschäftsbeziehung mit dem US-Militär.
Vertragsverlust und „Lieferkettenrisiko“-Label
Wenn Anthropic nicht kooperiert, könnten die Konsequenzen über den Verlust des Pentagon-Auftrags hinausgehen.
Ein hochrangiger Pentagon-Beamter sagte CBS News, das Unternehmen würde „nicht nur den Verlust des Geschäfts, sondern auch die Kennzeichnung als Lieferkettenrisiko“ drohen.
Die Nachrichtenagentur berichtete unter Berufung auf Quellen, dass Pentagon-Vertreter erwägen, den Defense Production Act zu aktivieren, um Anthropic zur Einhaltung der militärischen Forderungen zu zwingen. Dieser Schritt würde der Regierung möglicherweise erweiterte Befugnisse geben, um im Interesse der nationalen Sicherheit Kooperationen zu erzwingen.
Anthropic erhielt im Juli einen Auftrag im Wert von 200 Millionen US-Dollar vom Pentagon, um KI-Fähigkeiten zu entwickeln, die darauf abzielen, die nationalen Sicherheitsziele der USA voranzutreiben.
** Auch lesen** | Erklärung | Warum streitet das Pentagon mit Anthropic um die Nutzung von Claude? Streitpunkt sind Sicherheitsvorkehrungen für den KI-Einsatz
Im Mittelpunkt der Verhandlungen steht Anthropic’s KI-Modell, Claude.
Die Nachrichtenagentur berichtete unter Berufung auf Quellen auch, dass Anthropic wiederholt von Verteidigungsbeamten verlangt habe, bestimmte Sicherheitsvorkehrungen zu vereinbaren, die Claude daran hindern würden, Massenüberwachung Amerikaner durchzuführen. Vertreter der Trump-Administration widersprachen, dass eine solche Überwachung illegal sei und dass das Pentagon im Rahmen des Gesetzes operiere.
Der CEO von Anthropic, Dario Amodei, hat laut einer mit den Verhandlungen vertrauten Quelle auch darauf gedrängt, sicherzustellen, dass Claude nicht ohne menschliche Aufsicht in militärischen Operationen für endgültige Zielentscheidungen verwendet wird, so die Berichterstattung.
Die Quelle wies darauf hin, dass Claude, wie andere KI-Systeme, nicht immun gegen Halluzinationen ist und möglicherweise nicht zuverlässig genug ist, um potenziell tödliche Fehler zu vermeiden, einschließlich unbeabsichtigter Eskalationen oder Missionsausfälle ohne menschliches Urteilsvermögen.
Frist bis Freitag gesetzt
Bei einem Treffen im Pentagon am Dienstagmorgen gab Hegseth Amodei bis Freitag Zeit, ein unterschriebenes Dokument vorzulegen, das den vollständigen Zugriff auf Anthropic’s KI-Modell gewährt.
** Auch lesen** | Cognizants Babak Hodjat beruhigt Bedenken hinsichtlich der durch Anthropic verursachten KI-Auswirkungen
MENAFN26022026007365015876ID1110795910