Der CEO von Anthropic, Dario Amodei, erklärte am Donnerstag, dass das Unternehmen keine Sicherheitsvorkehrungen aus seinem Claude-KI-Modell entfernen werde, was den Streit mit dem US-Verteidigungsministerium über die Nutzung der Technologie in geheimen Militärsystemen verschärft. Die Erklärung erfolgt, während das Verteidigungsministerium seine Beziehung zu Anthropic überprüft und mögliche Konsequenzen abwägt, darunter die Kündigung des 200-Millionen-Dollar-Vertrags und die mögliche Anwendung des Defense Production Act. „Wir können in gutem Gewissen ihrer Forderung nicht nachkommen“, schrieb Amodei und bezog sich auf die Forderung des Pentagons im Januar, dass KI-Auftragnehmer die Nutzung ihrer Systeme für „jede rechtmäßige Verwendung“ erlauben.
Seitdem hat das Pentagon von KI-Anbietern verlangt, in zukünftigen Vereinbarungen die Standardformulierung „jede rechtmäßige Verwendung“ zu übernehmen, doch Anthropic blieb das einzige Frontier-KI-Unternehmen, das sich weigerte, die Kontrolle über seine KI an das Militär abzugeben. Am Mittwoch berichtete Axios, dass das Pentagon ein Ultimatum gestellt habe, das uneingeschränkte militärische Nutzung von Claude zu erlauben. Der Termin soll laut Berichten dieser Woche Freitag sein. „Es liegt im Ermessen des Department, Auftragnehmer auszuwählen, die am besten mit ihrer Vision übereinstimmen“, fuhr Amodei fort. „Angesichts des erheblichen Werts, den Anthropics Technologie für unsere Streitkräfte bietet, hoffen wir, dass sie ihre Entscheidung überdenken.“ In seiner Erklärung stellte Amodei die Haltung des Unternehmens in Einklang mit den Zielen der US-Nationalen Sicherheit.
„Ich glaube zutiefst an die existenzielle Bedeutung, KI zum Schutz der Vereinigten Staaten und anderer Demokratien einzusetzen und unsere autokratischen Gegner zu besiegen“, sagte er. Er fügte hinzu, dass Claude „umfangreich im Verteidigungsministerium und anderen nationalen Sicherheitsbehörden für Geheimdienstanalysen, Modellierung und Simulation, Einsatzplanung, Cyberoperationen und mehr eingesetzt wird.“ Krieg gegen KI Der Konflikt findet vor dem Hintergrund breiterer Bedenken darüber statt, wie fortschrittliche KI-Systeme in hochriskanten militärischen Szenarien agieren. In einer aktuellen Studie des King’s College London verwendeten OpenAI’s GPT-5.2, Anthropic’s Claude Sonnet 4 und Google’s Gemini 3 Flash in 95 % der simulierten geopolitischen Krisen Atomwaffen. Im Januar kündigte Verteidigungsminister Pete Hegseth bei einer Rede auf SpaceX’s Starbase in Texas an, dass das US-Militär die fortschrittlichsten KI-Modelle einsetzen wolle. Im selben Monat tauchten Berichte auf, wonach Claude während einer US-Operation zur Festnahme des ehemaligen venezolanischen Präsidenten Nicolás Maduro eingesetzt wurde. Amodei wies Behauptungen zurück, dass Anthropic bestimmte militärische Einsätze hinterfragt habe. „Anthropic versteht, dass das Department of War, nicht private Unternehmen, militärische Entscheidungen trifft“, sagte er. „Wir haben niemals Einwände gegen bestimmte militärische Operationen erhoben oder versucht, die Nutzung unserer Technologie ad hoc einzuschränken.“ Trotzdem erklärte Amodei, dass der Einsatz dieser Systeme für Massenüberwachung im Inland oder autonome Waffen mit demokratischen Werten unvereinbar sei und ernsthafte Risiken berge.
„Heute sind Frontier-KI-Systeme einfach nicht zuverlässig genug, um vollautonome Waffen zu steuern“, sagte er. „Wir werden wissentlich kein Produkt bereitstellen, das die amerikanischen Streitkräfte und Zivilisten gefährdet.“ Er sprach auch das Drohpotenzial des Pentagons an, Anthropic als „Lieferkettenrisiko“ zu kennzeichnen und gleichzeitig den Defense Production Act zu aktivieren. „Diese beiden Drohungen widersprechen sich grundsätzlich: Die eine bezeichnet uns als Sicherheitsrisiko; die andere sieht Claude als essenziell für die nationale Sicherheit an“, sagte er. Obwohl Amodei erklärt hat, dass das Unternehmen der Forderung des Pentagons nicht nachkommen werde, hat Anthropic gleichzeitig seine Responsible Scaling Policy überarbeitet und auf die Zusage verzichtet, die Ausbildung fortschrittlicher Systeme ohne garantierte Sicherheitsvorkehrungen zu stoppen. Robert Weissman, Co-Präsident von Public Citizen, sagte, die Haltung des Pentagons signalisiere einen breiteren Druck auf die Tech-Industrie. „Das Pentagon schikaniert Anthropic öffentlich, und das ist absichtlich, weil sie dieses spezielle Unternehmen unter Druck setzen und eine Botschaft an alle großen Tech-Firmen und Konzerne senden wollen, dass wir tun und nehmen, was wir wollen, und uns nicht aufhalten lassen“, sagte Weissman gegenüber Decrypt. Weissman bezeichnete die Sicherheitsvorkehrungen von Anthropic als „bescheiden“ und darauf ausgelegt, „unangemessene Überwachung amerikanischer Bürger oder die Entwicklung und den Einsatz von Killerrobotern, KI-gestützten Waffen, die tödliche Schläge ohne menschliches Zutun ausführen könnten“, zu verhindern. „Das sind die vernünftigsten und bescheidensten Sicherheitsvorkehrungen, die man bei dieser mächtigen neuen Technologie treffen kann.“
Zum Thema Drohung des Pentagons, Anthropic als „Lieferkettenrisiko“ zu kennzeichnen, nannte Weissman dies eine potenziell verheerende Strafe der Regierung und argumentierte, dass dies andere KI-Firmen dazu drängen könnte, ähnliche Beschränkungen zu vermeiden. „Einzelpersonen könnten Claude nutzen, aber keine der KI-Firmen, insbesondere Anthropic, basiert ihr Geschäftsmodell auf individueller Nutzung; sie suchen nach Geschäftsanwendungen“, sagte er. „Das ist eine potenziell verheerende Strafe der Regierung.“ Ob das Pentagon plant, die Kündigung des Vertrags durchzusetzen oder den Defense Production Act zu aktivieren, ist noch unklar. Weissman sagte jedoch, das Pentagon signalisiere den KI-Unternehmen, dass es nach der Bereitstellung in staatlichen Systemen uneingeschränkten Zugriff auf deren Technologie erwarte. „Die Botschaft des Pentagons ist: ‚Wir werden das nicht tolerieren, und wir erwarten, die Technologie für jeden Zweck nutzen zu können, den wir wollen‘“, sagte Weissman. Das Verteidigungsministerium und Anthropic haben auf Decrypts Anfragen nach Kommentaren bisher nicht reagiert.