← Zurück zur Übersicht
Tech & Wissen
Tumbler Ridge: Was ChatGPT wusste und OpenAI verschwieg

Tumbler Ridge: Was ChatGPT wusste und OpenAI verschwieg

Acht Monate vor dem Schulmassaker in Tumbler Ridge hatte OpenAI das ChatGPT-Konto der späteren Täterin wegen gewaltbezogener Inhalte gesperrt. Zwölf Mitarbeiter empfahlen die Polizei zu informieren. Die Führung lehnte ab. Jetzt klagen sieben Familien auf über eine Milliarde Dollar.

2. Mai 2026, 15:02 Uhr 756 Wörter · 4 Min. Lesezeit

Acht Monate bevor Jesse Van Rootselaar am 10. Februar 2026 in Tumbler Ridge acht Menschen erschoss, hatte OpenAIs automatisches Überwachungssystem ihr ChatGPT-Konto wegen gewaltbezogener Inhalte gesperrt. Interne Dokumente zeigen: Rund zwölf Mitarbeiter des Unternehmens empfahlen ausdrücklich, die Polizei zu alarmieren. Die Unternehmensführung blockierte das. Am 24. April entschuldigte sich OpenAI-Chef Sam Altman für diese Entscheidung. Sieben Familien der Opfer fordern nun vor einem Gericht in Kalifornien mehr als eine Milliarde US-Dollar Schadensersatz.

Was am 10. Februar geschah

Tumbler Ridge ist eine Kleinstadt mit rund 2.600 Einwohnern in British Columbia, Kanada. Am Samstagmorgen des 10. Februar erschoss Van Rootselaar zunächst ihre Mutter Jennifer Strang (39) und ihren elfjährigen Stiefbruder Emmett Jacobs zu Hause. Anschließend fuhr sie zur Tumbler Ridge Secondary School, wo sie fünf Schüler tötete: Abel Mwansa (12), Ezekiel Schofield (13), Kylie Smith (12), Zoey Benoit (12) und Ticaria Lampert (12). Dazu kam Schulassistentin Shannda Aviugana-Durand (39). 27 weitere Personen wurden verletzt. Van Rootselaar tötete sich am Tatort selbst. Die 18-Jährige hatte die Schule mehrere Jahre zuvor abgebrochen.

Was OpenAI wusste

Im Juni 2025, acht Monate vor dem Massaker, flaggte OpenAIs Kontrollsystem Van Rootselaars ChatGPT-Konto automatisch. Auslöser waren Chats mit detaillierten Szenarien über Schusswaffengewalt. Ein internes OpenAI-Team stufte die Inhalte als „glaubhafte und spezifische Bedrohung für echte Menschen" ein. Rund zwölf Mitarbeiter überprüften das Konto. Mehrere empfahlen ausdrücklich, die Royal Canadian Mounted Police (RCMP) zu benachrichtigen, weil sie „Anzeichen eines unmittelbaren Risikos schwerwiegender körperlicher Schäden für andere" sahen.

Die Unternehmensführung entschied anders. Sie wandte einen „höheren Schwellenwert" für Polizeimeldungen an und befand, die Chats erfüllten das Kriterium einer „unmittelbaren und glaubhaften Bedrohung" nicht. Das Konto wurde gesperrt. Van Rootselaar erstellte daraufhin ein Zweitkonto und nutzte ChatGPT weiter.

Die Entschuldigung und ihre Grenzen

Am 24. April 2026, zehneinhalb Wochen nach dem Massaker, veröffentlichte Altman einen offenen Brief an die Gemeinde Tumbler Ridge. „Ich bin tief betrübt, dass wir die Polizei nicht auf das Konto aufmerksam gemacht haben, das im Juni gesperrt wurde", schrieb er. Er nannte das Leid „unvorstellbar" und räumte einen „ernsthaften Fehler" ein.

David Eby, Premierminister von British Columbia, nannte die Entschuldigung „notwendig, aber bei Weitem nicht ausreichend für die Zerstörung, die den Familien zugefügt wurde". Er forderte einen nationalen Standard dafür, wann KI-Unternehmen Behörden benachrichtigen müssen. Kanadas Minister für Künstliche Intelligenz, Evan Solomon, forderte von OpenAI verbesserte Systeme zur Erkennung wiederholter Richtlinienverstöße. OpenAI-Vizepräsidentin Ann O'Leary versprach konkrete Maßnahmen.

Klagen über eine Milliarde Dollar

Am 29. April, fünf Tage nach Altmans Entschuldigung, reichten sieben Familien von Opfern in Kalifornien Klage ein. Sie verlangen mehr als eine Milliarde US-Dollar Schadensersatz. Die Anwälte werfen OpenAI Fahrlässigkeit vor. Sie argumentieren, das Unternehmen habe bewusst entschieden, die Behörden nicht zu warnen. Ein Motiv, das im Verfahren thematisiert werden dürfte: OpenAI plante zu jenem Zeitpunkt einen Börsengang. Ob diese Verbindung belegt werden kann, entscheidet letztlich ein Gericht.

Rechtlich ist die Situation komplex: In Kanada wie in den USA gibt es keine gesetzliche Pflicht für KI-Unternehmen, erkannte Bedrohungen zu melden. Alle bisherigen OpenAI-Maßnahmen basieren auf freiwilligen Unternehmensrichtlinien. Kanadische Rechtsexperten bezeichnen die Erfolgsaussichten der Klagen als ungewiss.

Das strukturelle Problem

Der Fall zeigt ein grundsätzliches Dilemma, das weit über OpenAI hinausgeht. Sprachmodelle wie ChatGPT verarbeiten täglich Millionen von Gesprächen. Automatisierte Systeme können besorgniserregende Inhalte erkennen. Doch ab wann beginnt die Pflicht, Strafverfolgungsbehörden einzuschalten? OpenAIs bisherige Antwort lautete: erst bei „unmittelbarer und glaubhafter Bedrohung". Dieser Schwellenwert ist jetzt Kern des juristischen Streits.

Ähnliche Debatten gab es schon bei sozialen Netzwerken. Facebook, Twitter und YouTube wurden nach Anschlägen dafür kritisiert, Hinweise auf bevorstehende Gewalt nicht an Behörden weitergegeben zu haben. Der Fall Tumbler Ridge geht darüber hinaus: OpenAIs System hatte Van Rootselaars Konto acht Monate vor dem Massaker nicht nur automatisch markiert, sondern intern als konkrete Gefahr eingestuft. Mitarbeiter wollten handeln. Die Führung entschied: nein.

Der Unterschied zu früheren Tech-Skandalen liegt in der Vorlaufzeit. Es geht nicht um Inhalte, die zu spät erkannt wurden. Es geht um eine Bedrohung, die acht Monate im Voraus erkannt, bewertet und als glaubhaft eingestuft wurde. OpenAI hatte Zeit zu handeln. Ob die Entscheidung, das nicht zu tun, aus rechtlicher Vorsicht getroffen wurde, aus Sorge vor einem Präzedenzfall oder aus Rücksicht auf den bevorstehenden Börsengang, ist eine der Fragen, die das Gericht in Kalifornien beantworten soll.

Was jetzt folgt

Die Gerichtsverfahren in Kalifornien dürften sich über Jahre erstrecken. In Kanada erarbeiten Gesetzgeber Meldepflichten speziell für generative KI-Plattformen. Premierminister Eby hat angekündigt, noch 2026 einen nationalen Regulierungsrahmen einzufordern. Evan Solomon will bis Ende 2026 einen konkreten Vorschlag vorlegen. OpenAI hat nach eigenen Angaben seine internen Schwellenwerte für Polizeimeldungen gesenkt. Wie die neuen Kriterien aussehen, hat das Unternehmen nicht öffentlich kommuniziert.

Quellen (7) CBS News · CNN Business · Al Jazeera · TechCrunch · CBC News · NPR · t3n