Pentagon gegen Anthropic: US-Gericht erlaubt Blacklisting des Claude-Herstellers
Wer ein KI-System entwickelt und dabei bestimmte Grenzen setzt, kann dafür vom US-Militär auf die schwarze Liste gesetzt werden. Seit dem 8. April darf das Pentagon den Claude-Hersteller Anthropic weiterhin als Sicherheitsrisiko einstufen: Ein Berufungsgericht in Washington lehnte Anthropics Eilantrag ab. Es ist das erste Mal, dass ein amerikanisches Unternehmen diese Einstufung erhält. Bisher war die Bezeichnung ausschließlich chinesischen und russischen Firmen vorbehalten.
200-Millionen-Vertrag und das Scheitern der Verhandlungen
Im Juli 2025 schloss das Pentagon mit Anthropic einen Vertrag über 200 Millionen Dollar für die KI-Plattform GenAI.mil ab. Im September 2025 brachen die Verhandlungen ab. Das Verteidigungsministerium forderte eine Klausel, die Claude für "jeden rechtmäßigen Zweck" einsetzbar machen sollte. Anthropic-Chef Dario Amodei lehnte ab. Er zog zwei klare Grenzen: Das Unternehmen werde Claude weder für vollautonome Waffensysteme ohne menschliche Entscheidungsgewalt noch für die Massenüberwachung von US-Bürgern freigeben. Als Begründung nannte Amodei, KI-Systeme machten heute noch zu viele Fehler, um zuverlässig über Leben und Tod zu entscheiden.
Im Februar 2026 stellte Verteidigungsminister Pete Hegseth Anthropic ein Ultimatum. Als das Unternehmen abermals ablehnte, erklärte das Pentagon am 3. März 2026 Anthropic zum Supply-Chain-Risiko. Präsident Trump wies gleichzeitig alle Bundesbehörden an, Anthropic-Produkte binnen sechs Monaten abzulösen. OpenAI übernahm Teile des Rüstungsgeschäfts und ist nach Medienberichten inzwischen auch in laufenden Militäreinsätzen im Nahen Osten aktiv. Sam Altman äußerte sich öffentlich kritisch zu Amodeis Position und bezeichnete die Forderung nach menschlicher Aufsicht über Waffenentscheidungen als praxisfern.
Zwei Gerichte, zwei Entscheidungen
Anthropic klagte gleichzeitig in San Francisco und Washington. Am 26. März entschied Bundesrichterin Rita Lin in Nordkalifornien, das Pentagon habe Anthropic für seine öffentlich geäußerten Sicherheitsüberzeugungen bestraft, und bezeichnete das Vorgehen als verfassungswidrige Vergeltungsmaßnahme gegen geschützte Meinungsäußerungen. Fünf auf nationales Sicherheitsrecht spezialisierte Juristen erklärten gegenüber Reuters, die Pentagon-Einstufung sei rechtlich fraglich: Das entsprechende Gesetz aus dem Defense Production Act sei für ausländische Unternehmen konzipiert worden, nicht für US-Firmen. Rechtsprofessor Joel Dodge von der Vanderbilt University sprach von Hinweisen auf "persönlichen Unmut und schlechte Absichten" seitens des Ministeriums. Alan Rozenshtein von der Universität Minnesota wies auf einen logischen Widerspruch hin: Das Pentagon setze Claude in aktiven Militäreinsätzen ein, verbiete es gleichzeitig per Vertrag und nenne es ein Sicherheitsrisiko.
Das Berufungsgericht in Washington kam am 8. April zu einem anderen Ergebnis. Es argumentierte, der finanzielle Schaden für Anthropic sei "vergleichsweise begrenzt" gemessen an den nationalen Sicherheitsinteressen. Für Anthropic ist das ein erheblicher Rückschlag: CFO Krishna Rao hatte in Gerichtsunterlagen erklärt, die Verluste könnten 2026 mehrere Milliarden Dollar betragen. Mehr als 30 Forscher von OpenAI und Google, darunter Googles Chief Scientist Jeff Dean, sowie Microsoft hatten die Rechtsposition Anthropics in Gutachten unterstützt.
Was auf dem Spiel steht
Hinter dem Rechtsstreit steht eine grundsätzliche Frage: Kann ein Unternehmen selbst bestimmen, für welche Zwecke seine Technologie eingesetzt wird, wenn es an Regierungen verkauft? Anthropic argumentiert, die Entscheidung über Sicherheitsleitplanken sei eine vom ersten Verfassungszusatz geschützte redaktionelle Entscheidung, vergleichbar der Entscheidung eines Verlags über seine Inhalte. Das Verteidigungsministerium hält dagegen, dass es beim Einkauf von Technologie keine eigenen ethischen Bedingungen durch Zulieferer akzeptiert.
Die Auseinandersetzung hat in europäischen Hauptstädten Aufmerksamkeit erregt. Das EU-KI-Gesetz lässt militärische Anwendungen explizit ungeregelt. Das European Policy Centre bewertete den Fall als Warnsignal: Wenn KI-Anbieter unter solchen Druck geraten, verlieren europäische Nutzer die Kontrolle darüber, wie sich die eingesetzte Technologie verhält. Großbritannien hat Anthropic unterdessen eine Doppelnotierung an der Londoner Börse und Büroflächen angeboten.
Entscheidung am 19. Mai
Am 19. Mai findet die mündliche Verhandlung vor dem D.C. Circuit Court of Appeals statt. Bis dahin bleibt die Pentagon-Einstufung in Kraft. Sollte das Gericht die Einstufung kippen, wäre das ein Präzedenzfall für die Grenzen staatlicher Kontrolle über KI-Unternehmen. Bestätigt es sie, entsteht ein Mechanismus, mit dem Regierungen die Sicherheitsversprechen von KI-Firmen durch Auftragsvergabe aushebeln können. Parallel läuft das kalifornische Verfahren bei Richterin Lin weiter.