← Zurück zur Übersicht
Tech & Wissenschaft

Studie enthüllt: Zehntausende Nacktbilder auf Telegram illegal gehandelt

Die europäische Forschungsorganisation AI Forensics hat ein systematisches Netzwerk des illegalen Bilderhandels auf Telegram aufgedeckt. In 16 Gruppen tauschten fast 25.000 Nutzer über 80.000 Dateien, darunter Deepfake-Nacktbilder und reale Aufnahmen.

8. April 2026, 19:00 Uhr 571 Wörter · 3 Min. Lesezeit

Ein organisiertes System des Missbrauchs, das in seiner Dimension überrascht: Die europäische Non-Profit-Organisation AI Forensics hat über sechs Wochen 2,8 Millionen Nachrichten in 16 spanischen und italienischen Telegram-Gruppen analysiert und dabei ein Ökosystem aufgedeckt, das den illegalen Handel mit intimen Bildern von Frauen in industriellem Maßstab betreibt. Die Ergebnisse, die am 8. April 2026 veröffentlicht wurden, zeichnen ein alarmierendes Bild der Möglichkeiten digitaler Gewalt.

Das Ausmaß der Untersuchung

Zwischen Dezember 2025 und Februar 2026 verfolgten die Forscher den Austausch von mehr als 80.000 Dateien in den untersuchten Gruppen. Rund 75 Prozent davon waren Fotos, 25 Prozent Videodateien und ein Prozent Audioaufnahmen. Die überwiegende Mehrheit der Inhalte war sexuell explizit. Unter den Dateien befanden sich auch Bilder von Minderjährigen. Fast 25.000 aktive Nutzer beteiligten sich am Austausch, der häufig gegen Bezahlung erfolgte.

Besonders beunruhigend ist die Rolle künstlicher Intelligenz in diesem System. Ein erheblicher Teil der Bilder waren sogenannte Deepfakes, also synthetisch erzeugte Nacktbilder, die mithilfe von KI-gestützten Nudifying-Bots aus normalen Fotos generiert wurden. Diese Bots verwandeln alltägliche Aufnahmen von Frauen automatisiert in Nacktbilder, ohne dass die Betroffenen davon wissen oder dem zugestimmt hätten.

Ein monetarisiertes Missbrauchssystem

Der Handel ist vollständig kommerzialisiert. Archive mit nicht-einvernehmlich erstellten intimen Bildern werden für 20 bis 50 Euro verkauft. Vermittler erhalten bis zu 40 Prozent Provision. Neben dem reinen Bilderhandel dokumentierten die Forscher weitere schädliche Praktiken in den Gruppen: Doxxing, also das Veröffentlichen persönlicher Daten der Betroffenen, koordinierte Belästigungskampagnen sowie Aufrufe zu sexueller Gewalt gegen die abgebildeten Frauen. Auch der Handel mit Spionagesoftware wurde in den Gruppen beobachtet.

Telegrams Moderationsproblem

Die Studie legt strukturelle Defizite bei Telegram offen. Die Plattform kombiniert Datenschutzfunktionen wie Ende-zu-Ende-Verschlüsselung mit Massenverbreitungsmöglichkeiten und schafft damit Bedingungen, unter denen sich missbräuchliches Verhalten mit einem relativ hohen Gefühl von Sicherheit und Straflosigkeit entwickeln kann. Mehrere der untersuchten Gruppen wurden von Telegram zwar gesperrt, öffneten jedoch nur wenige Stunden später unter denselben Namen wieder. Dies deutet darauf hin, dass die Moderationsmechanismen der Plattform unzureichend sind.

Telegram kooperiert grundsätzlich nur eingeschränkt mit Behörden, was die strafrechtliche Verfolgung erheblich erschwert. In Deutschland ist die Verbreitung solcher Inhalte nach dem Strafgesetzbuch als Verletzung des höchstpersönlichen Lebensbereichs strafbar, doch die Durchsetzung scheitert häufig an der fehlenden Kooperation der Plattform.

Politische Forderungen

Die Forscher von AI Forensics fordern ein EU-weites Verbot von Nudifying-Tools sowie die Einstufung von Telegram als Very Large Online Platform im Sinne des Digital Services Act. Diese Einstufung würde Telegram strengeren Moderations- und Transparenzpflichten unterwerfen. Bislang hat sich Telegram erfolgreich gegen eine solche Klassifizierung gewehrt.

Die Studie verdeutlicht ein grundsätzliches Dilemma der digitalen Regulierung: Während die technischen Möglichkeiten zur Erzeugung und Verbreitung missbräuchlicher Inhalte rasant wachsen, hinken Gesetzgebung und Plattformaufsicht hinterher. Für die Betroffenen, überwiegend Frauen, bedeutet dies eine dauerhafte Bedrohung ihrer Privatsphäre und persönlichen Sicherheit, gegen die sie sich kaum wirksam schützen können. Die Frage, ob Europa den regulatorischen Willen aufbringt, dem technologisch befeuerten Missbrauch Grenzen zu setzen, wird durch Studien wie diese immer drängender.

KI-gestützt erstellt

Weitere Artikel in Tech & Wissenschaft

Tech & Wissenschaft

Pentagon gegen Anthropic: US-Gericht erlaubt Blacklisting des Claude-Herstellers

Das US-Militär hat den Claude-Hersteller Anthropic vom Verteidigungsbudget ausgeschlossen, weil das Unternehmen autonome Waffen und Massenüberwachung ablehnt. Ein Berufungsgericht in Washington ließ die Einstufung am 8. April aufrechterhalten.

8 Quellen 4 Min.
Tech & Wissenschaft

Meta stellt KI-Modell Muse Spark vor und bricht mit Open-Source-Strategie

Meta präsentiert mit Muse Spark das erste KI-Modell seiner neuen Superintelligence Labs. Der Konzern verfolgt damit eine Abkehr von der bisherigen Open-Source-Linie und will direkt gegen OpenAI und Google antreten.

9 Quellen 4 Min.
Tech & Wissenschaft

OECD: Long Covid kostet Industrieländer 135 Milliarden Dollar jährlich

Eine neue OECD-Studie beziffert die jährlichen Kosten von Long Covid für die Industrieländer auf bis zu 135 Milliarden Dollar und prognostiziert, dass diese Belastung bis mindestens 2035 anhalten wird. Der größte Teil entfällt nicht auf Behandlungskosten, sondern auf Produktivitätsverluste.

6 Quellen 4 Min.