← Zurück zur Übersicht
Tech & Wissenschaft

Pentagon gegen Anthropic: US-Gericht erlaubt Blacklisting des Claude-Herstellers

Das US-Militär hat den Claude-Hersteller Anthropic vom Verteidigungsbudget ausgeschlossen, weil das Unternehmen autonome Waffen und Massenüberwachung ablehnt. Ein Berufungsgericht in Washington ließ die Einstufung am 8. April aufrechterhalten.

9. April 2026, 12:00 Uhr 634 Wörter · 4 Min. Lesezeit

Wer ein KI-System entwickelt und dabei bestimmte Grenzen setzt, kann dafür vom US-Militär auf die schwarze Liste gesetzt werden. Seit dem 8. April darf das Pentagon den Claude-Hersteller Anthropic weiterhin als Sicherheitsrisiko einstufen: Ein Berufungsgericht in Washington lehnte Anthropics Eilantrag ab. Es ist das erste Mal, dass ein amerikanisches Unternehmen diese Einstufung erhält. Bisher war die Bezeichnung ausschließlich chinesischen und russischen Firmen vorbehalten.

200-Millionen-Vertrag und das Scheitern der Verhandlungen

Im Juli 2025 schloss das Pentagon mit Anthropic einen Vertrag über 200 Millionen Dollar für die KI-Plattform GenAI.mil ab. Im September 2025 brachen die Verhandlungen ab. Das Verteidigungsministerium forderte eine Klausel, die Claude für "jeden rechtmäßigen Zweck" einsetzbar machen sollte. Anthropic-Chef Dario Amodei lehnte ab. Er zog zwei klare Grenzen: Das Unternehmen werde Claude weder für vollautonome Waffensysteme ohne menschliche Entscheidungsgewalt noch für die Massenüberwachung von US-Bürgern freigeben. Als Begründung nannte Amodei, KI-Systeme machten heute noch zu viele Fehler, um zuverlässig über Leben und Tod zu entscheiden.

Im Februar 2026 stellte Verteidigungsminister Pete Hegseth Anthropic ein Ultimatum. Als das Unternehmen abermals ablehnte, erklärte das Pentagon am 3. März 2026 Anthropic zum Supply-Chain-Risiko. Präsident Trump wies gleichzeitig alle Bundesbehörden an, Anthropic-Produkte binnen sechs Monaten abzulösen. OpenAI übernahm Teile des Rüstungsgeschäfts und ist nach Medienberichten inzwischen auch in laufenden Militäreinsätzen im Nahen Osten aktiv. Sam Altman äußerte sich öffentlich kritisch zu Amodeis Position und bezeichnete die Forderung nach menschlicher Aufsicht über Waffenentscheidungen als praxisfern.

Zwei Gerichte, zwei Entscheidungen

Anthropic klagte gleichzeitig in San Francisco und Washington. Am 26. März entschied Bundesrichterin Rita Lin in Nordkalifornien, das Pentagon habe Anthropic für seine öffentlich geäußerten Sicherheitsüberzeugungen bestraft, und bezeichnete das Vorgehen als verfassungswidrige Vergeltungsmaßnahme gegen geschützte Meinungsäußerungen. Fünf auf nationales Sicherheitsrecht spezialisierte Juristen erklärten gegenüber Reuters, die Pentagon-Einstufung sei rechtlich fraglich: Das entsprechende Gesetz aus dem Defense Production Act sei für ausländische Unternehmen konzipiert worden, nicht für US-Firmen. Rechtsprofessor Joel Dodge von der Vanderbilt University sprach von Hinweisen auf "persönlichen Unmut und schlechte Absichten" seitens des Ministeriums. Alan Rozenshtein von der Universität Minnesota wies auf einen logischen Widerspruch hin: Das Pentagon setze Claude in aktiven Militäreinsätzen ein, verbiete es gleichzeitig per Vertrag und nenne es ein Sicherheitsrisiko.

Das Berufungsgericht in Washington kam am 8. April zu einem anderen Ergebnis. Es argumentierte, der finanzielle Schaden für Anthropic sei "vergleichsweise begrenzt" gemessen an den nationalen Sicherheitsinteressen. Für Anthropic ist das ein erheblicher Rückschlag: CFO Krishna Rao hatte in Gerichtsunterlagen erklärt, die Verluste könnten 2026 mehrere Milliarden Dollar betragen. Mehr als 30 Forscher von OpenAI und Google, darunter Googles Chief Scientist Jeff Dean, sowie Microsoft hatten die Rechtsposition Anthropics in Gutachten unterstützt.

Was auf dem Spiel steht

Hinter dem Rechtsstreit steht eine grundsätzliche Frage: Kann ein Unternehmen selbst bestimmen, für welche Zwecke seine Technologie eingesetzt wird, wenn es an Regierungen verkauft? Anthropic argumentiert, die Entscheidung über Sicherheitsleitplanken sei eine vom ersten Verfassungszusatz geschützte redaktionelle Entscheidung, vergleichbar der Entscheidung eines Verlags über seine Inhalte. Das Verteidigungsministerium hält dagegen, dass es beim Einkauf von Technologie keine eigenen ethischen Bedingungen durch Zulieferer akzeptiert.

Die Auseinandersetzung hat in europäischen Hauptstädten Aufmerksamkeit erregt. Das EU-KI-Gesetz lässt militärische Anwendungen explizit ungeregelt. Das European Policy Centre bewertete den Fall als Warnsignal: Wenn KI-Anbieter unter solchen Druck geraten, verlieren europäische Nutzer die Kontrolle darüber, wie sich die eingesetzte Technologie verhält. Großbritannien hat Anthropic unterdessen eine Doppelnotierung an der Londoner Börse und Büroflächen angeboten.

Entscheidung am 19. Mai

Am 19. Mai findet die mündliche Verhandlung vor dem D.C. Circuit Court of Appeals statt. Bis dahin bleibt die Pentagon-Einstufung in Kraft. Sollte das Gericht die Einstufung kippen, wäre das ein Präzedenzfall für die Grenzen staatlicher Kontrolle über KI-Unternehmen. Bestätigt es sie, entsteht ein Mechanismus, mit dem Regierungen die Sicherheitsversprechen von KI-Firmen durch Auftragsvergabe aushebeln können. Parallel läuft das kalifornische Verfahren bei Richterin Lin weiter.

KI-gestützt erstellt

Weitere Artikel in Tech & Wissenschaft

Tech & Wissenschaft

Meta stellt KI-Modell Muse Spark vor und bricht mit Open-Source-Strategie

Meta präsentiert mit Muse Spark das erste KI-Modell seiner neuen Superintelligence Labs. Der Konzern verfolgt damit eine Abkehr von der bisherigen Open-Source-Linie und will direkt gegen OpenAI und Google antreten.

9 Quellen 4 Min.
Tech & Wissenschaft

Studie enthüllt: Zehntausende Nacktbilder auf Telegram illegal gehandelt

Die europäische Forschungsorganisation AI Forensics hat ein systematisches Netzwerk des illegalen Bilderhandels auf Telegram aufgedeckt. In 16 Gruppen tauschten fast 25.000 Nutzer über 80.000 Dateien, darunter Deepfake-Nacktbilder und reale Aufnahmen.

6 Quellen 3 Min.
Tech & Wissenschaft

OECD: Long Covid kostet Industrieländer 135 Milliarden Dollar jährlich

Eine neue OECD-Studie beziffert die jährlichen Kosten von Long Covid für die Industrieländer auf bis zu 135 Milliarden Dollar und prognostiziert, dass diese Belastung bis mindestens 2035 anhalten wird. Der größte Teil entfällt nicht auf Behandlungskosten, sondern auf Produktivitätsverluste.

6 Quellen 4 Min.