Die neuesten KI-Nachrichten zur Nachricht zur künstlichen Intelligenz, zum US-Militär, zum Iran-Krieg 2026 Debatte, haben sich um eine einzige Person verdichtet: In den ersten 24 Stunden der Operation Epic Fury am 28. Februar schlug das US-Militär mit dem Maven Smart System von Palantir, in das Claudes von Anthropic eingebettet ist, mehr als 1.000 Ziele im Iran — ein Tempo, das der Leiter von CENTCOM, Admiral Brad Cooper, öffentlich bestätigt hat, und das laut Menschenrechtsexperten ernsthafte Fragen zu KI-gestütztem Targeting und zivilen Schäden aufgeworfen hat.
Zusammenfassung
Die neuesten KI-Nachrichten zur Nachricht zur künstlichen Intelligenz, zum US-Militär, zum Iran-Krieg 2026 Story, sind sowohl ein technologischer Meilenstein als auch eine humanitäre Abrechnung. Laut IBTimes wurden in den ersten 24 Stunden der Operation Epic Fury am 28. Februar über 1.000 Ziele getroffen — mehr als das Doppelte der Luftmacht, die während der gesamten Anfangsphase der Irak-Invasion 2003 eingesetzt wurde. Ein solches Tempo ist nur mit KI möglich. Ein vom Menschen geführter Targeting-Prozess hätte erfordert, dass Tausende von Analysten über Wochen hinweg arbeiten, um so viele Anvisierungspunkte zu erstellen und zu validieren.
Das System im Mittelpunkt ist das Maven Smart System von Palantir, das auf dem Large-Language-Model Claude von Anthropic läuft. Maven bündelt klassifizierte Feeds von Satelliten, Überwachungsdrohnen und archivierter Aufklärung zu einer einheitlichen Plattform. Claude synthetisiert diese Informationen zu priorisierten Ziellisten, komplett mit präzisen GPS-Koordinaten, Waffenempfehlungen und automatisierten rechtlichen Begründungen für Angriffe.
Admiral Brad Cooper bestätigte die Rolle von KI in einer öffentlich veröffentlichten Videobotschaft: „Diese Systeme helfen uns, in Sekunden durch riesige Datenmengen zu sichten, damit unsere Führungskräfte durch das Rauschen hindurchgehen und schnellere, klügere Entscheidungen treffen können, bevor der Feind reagieren kann. Menschen werden immer die endgültigen Entscheidungen darüber treffen, was abgeschossen wird und was nicht und wann geschossen wird. Aber fortschrittliche KI-Tools können Prozesse, die sonst Stunden und manchmal sogar Tage dauern, in Sekunden verwandeln.“
Cooper identifizierte keine spezifischen KI-Systeme namentlich. Was in der Aussage nicht angesprochen wurde, war die berichtete Genauigkeitsrate von Maven: etwa 60%, im Vergleich zu 84% für menschliche Analysten in einigen Einschätzungen.
Die ernsteste Frage zur Verantwortlichkeit betrifft einen US-Angriff auf die Grundschule für Mädchen Shajareh Tayyebeh in Minab, bei dem über 165 Zivilisten getötet wurden. Berichten zufolge befand sich die Schule auf einer Zielliste, die mit KI-Unterstützung erstellt wurde. Pentagon-Beamte sagten, veraltete Aufklärung habe zum Angriff beigetragen, und eine umfassende Untersuchung ist im Gange. Mehr als 120 Abgeordnete der Demokraten im US-Repräsentantenhaus haben formell Antworten über die Rolle der KI verlangt. Wie der Kriegsexperte Craig Jones gegenüber Democracy Now! sagte, „reduziert das KI-Targeting eine massive menschliche Arbeitsbelastung von Zehntausenden Stunden auf Sekunden und Minuten“ — aber „es automatisiert menschlich gemachte Targeting-Entscheidungen auf eine Weise, die alle möglichen problematischen rechtlichen, ethischen und politischen Fragen eröffnet.“
Der Konflikt hat direkte Auswirkungen auf die kommerzielle Tech. Iran hat Palantir, Google, Microsoft, Amazon und andere US-Unternehmen ausdrücklich als legitime militärische Ziele benannt, weil ihre Infrastruktur in dem Krieg eine Rolle spielt. Iranische Angriffe haben bereits AWS-Rechenzentren in den Vereinigten Arabischen Emiraten und in Bahrain beschädigt. Wie crypto.news berichtete, hat der Iran Bereitschaft gezeigt, wirtschaftliche und technologische Infrastruktur über den gesamten Golf hinweg anzugreifen — eine Bedrohung, die sich nun bis zur kommerziellen Cloud-Backbone erstreckt, die die US-KI-Militärsysteme antreibt.
Was der Iran-Krieg bestätigt hat, den Analysten inzwischen als „den ersten KI-Krieg“ bezeichnen, ist, dass kommerzielle KI und Kriegsführung nicht mehr getrennte Bereiche sind. Wie crypto.news anmerkte, erreicht jede Eskalation in diesem Konflikt innerhalb von Stunden die Finanzmärkte. Die Dimension des KI-Targetings fügt eine neue Ebene systemischen Risikos hinzu: nicht nur militärische Eskalation, sondern die Versachlichung der Waffe aus kommerzieller Technologieinfrastruktur selbst.