Anti-KI-Gewalt: Anschlag auf OpenAI-Chef Altman
Am 10. April warf Daniel Moreno-Gama, 20, aus Spring, Texas, gegen 3:37 Uhr morgens einen Molotow-Cocktail auf das Eingangstor von OpenAI-CEO Sam Altmans Haus in San Francisco. Das Tor brannte. Drei Tage später fuhren zwei Personen in einem Auto an dem Anwesen vorbei und schossen auf das Haus. Beide Vorfälle innerhalb von drei Tagen gegen denselben KI-Unternehmer markieren eine Eskalationsstufe in einem gesellschaftlichen Konflikt, der bisher vorwiegend in Internetforen ausgetragen wurde.
Wer war Moreno-Gama?
Bei seiner Verhaftung kurz nach dem Anschlag trug Moreno-Gama ein Manifest, in dem er KI als existenzielle Bedrohung der Menschheit beschrieb. Das Dokument enthielt die Namen weiterer KI-Unternehmensführer. Die Staatsanwaltschaft wertet das als Hinweis auf geplante Folgetaten. Moreno-Gama hatte vor etwa zwei Jahren das Discord-Forum der Anti-KI-Organisation PauseAI betreten und dort insgesamt 34 Nachrichten hinterlassen. Keine davon enthielt ausdrückliche Gewaltaufrufe, eine wurde als mehrdeutig eingestuft. PauseAI distanzierte sich sofort: Moreno-Gama sei kein Mitglied der Organisation, sein Handeln stehe im Widerspruch zu ihren Grundsätzen.
Im Manifest fand sich auch eine explizite Referenz auf Luigi Mangione, den mutmaßlichen Mörder eines US-Versicherungschefs, dessen Fall im Herbst 2025 eine gespaltene öffentliche Reaktion ausgelöst hatte: Während viele Mangiones Tat verurteilten, feierte ein Teil der Öffentlichkeit ihn als Symbol für den Kampf gegen korporative Macht. Ermittler sehen in Moreno-Gamas Verweis auf Mangione eine Nachahmungslogik. Die Verhandlung beginnt voraussichtlich im Mai. Moreno-Gamas Anwalt hat eine psychische Erkrankung als mögliche Verteidigungslinie angedeutet.
Auf Bundesebene ist Moreno-Gama wegen Besitzes einer unregistrierten Schusswaffe und Sachbeschädigung durch Sprengstoff angeklagt, auf Staatsebene wegen versuchten Mordes an Altman sowie einem am Tatort anwesenden Sicherheitsbeamten und versuchter Brandstiftung. Die Schützen des zweiten Vorfalls am 13. April wurden ebenfalls festgenommen.
Die Bewegung und ihre innere Spannung
PauseAI ist eine öffentlich auftretende Organisation mit klarer Ablehnung von Gewalt. Sie fordert ein globales Moratorium auf die Entwicklung leistungsfähiger KI-Systeme und verweist auf die Industrielle Revolution: Als Maschinen Arbeitsplätze vernichteten, zerstörten die Ludditen Webstühle. Das Argument war damals materiell und konkret. Die Ängste heutiger KI-Kritiker richten sich gegen abstrakte existenzielle Risiken: den Verlust menschlicher Kontrolle über Systeme, die selbst entscheiden könnten, was gut für die Menschheit ist.
Soziologen beschreiben das Muster bei Moreno-Gama als Angriff auf ein greifbares Stellvertreterziel: Altman ist weltweit bekannt, sein Haus in San Francisco adressierbar. OpenAI selbst ist eine juristische Person ohne Adresse. Das Ergebnis ist eine Logik, die einen konkreten Menschen für systemische Risiken verantwortlich macht, die kaum eine einzelne Person steuern könnte.
Parallel zu der physischen Gewalt eskaliert auch der institutionelle Konflikt. Das Pentagon setzte Anthropic, den Hersteller des KI-Assistenten Claude, auf eine Risikoliste, nachdem Anthropic-Chef Dario Amodei sich geweigert hatte, Claude für vollautonome Waffensysteme und Massenüberwachung freizugeben. Anthropic klagt dagegen vor Bundesgerichten. Das Paradox dabei: Anthropic's öffentlich erklärte Weigerung, Claude für Waffenzwecke und Überwachungszwecke freizugeben, hat das Unternehmen in die Zielscheibe des Pentagons gesetzt und gleichzeitig zum stärksten Wachstumstreiber gemacht. In einer einwöchigen Periode im März 2026 meldete Anthropic mehr als eine Million neue Nutzer täglich.
Was die Debatte verändert
Vier Wochen nach dem ersten Anschlag hat sich in der KI-Branche ein Sicherheitsbewusstsein etabliert, das bisher fehlte. OpenAI verstärkte seine Schutzmaßnahmen, andere Unternehmen ebenfalls. Altman selbst hat sich öffentlich nicht zu den Vorfällen geäußert. Das Schweigen ist bemerkenswert: Ein CEO, der auf fast jede Kritik schnell antwortet, hat zu dem schwersten Angriff auf seine Person nichts gesagt.
Die Fortune-Analyse der öffentlichen Reaktion zeigt einen generationalen Riss: Jüngere Nutzer äußern in sozialen Netzwerken häufiger Verständnis für die Frustration hinter dem Anschlag, auch wenn sie die Tat selbst verurteilen. Ältere Kommentatoren verweisen auf die rechtsstaatlichen Grenzen. Dieser Riss ist kein Randphänomen. Er spiegelt eine breitere Unsicherheit darüber, wer die gesellschaftlichen Auswirkungen von KI verantwortet und wer die Macht hat, sie zu gestalten.
Die nächsten Entscheidungen
Am 19. Mai findet vor dem D.C. Circuit Court of Appeals die mündliche Verhandlung im Fall Anthropic gegen das Pentagon statt. Das Urteil wird entscheiden, ob US-Behörden KI-Unternehmen für die Inhalte ihrer Sicherheitsrichtlinien bestrafen können. Fällt es zugunsten Anthropics aus, wäre das ein Präzedenzfall für die rechtliche Grenze staatlicher Kontrolle über KI. Bestätigt das Gericht die Pentagon-Einstufung, entsteht ein Instrument, das andere Regierungen imitieren könnten.
Wie sich die Anti-KI-Bewegung zwischen pazifistischem Protest und Einzeltäterkriminalität entwickelt, hängt auch davon ab, ob die institutionellen Auseinandersetzungen in Gerichten, Parlamenten und Unternehmen politische Handlungsmacht erzeugen. Solange die gesellschaftliche Debatte über KI-Kontrolle im Wesentlichen zwischen Unternehmen, Regierungen und Gerichten stattfindet, bleibt die Frustration für denjenigen Teil der Öffentlichkeit ohne Adressaten, der sich in keinem dieser Räume vertreten fühlt.