EU-Trilog zum AI Act: Hochrisiko-KI muss ab Dezember 2027 konform sein
Wer KI-Systeme in kritischen Bereichen einsetzt, braucht ab sofort eine verlässliche Planung: Ab dem 2. Dezember 2027 müssen eigenständige Hochrisiko-KI-Systeme die Anforderungen des EU AI Acts erfüllen. KI-Systeme in regulierten Produkten folgen am 2. August 2028. Das Europäische Parlament hat diese Fristen am 26. März 2026 mit 569 zu 45 Stimmen festgelegt. Die breite Mehrheit ist ungewöhnlich für ein Regulierungsvorhaben dieser Tragweite. Jetzt verhandeln Kommission, Rat und Parlament in Trilogen über das endgültige Änderungspaket, ein Abschluss wird bis Mai 2026 angestrebt.
Was die Novelle ändert
Der ursprüngliche AI Act trat im August 2024 in Kraft. Seit August 2025 gelten die ersten verbindlichen Regeln für Systeme mit allgemeinem Verwendungszweck, sogenannte GPAI-Systeme, zu denen große Sprachmodelle wie GPT-4 oder Gemini gehören. Die jetzt verhandelte Novelle, die unter dem Begriff Digital Omnibus firmiert, verschiebt und präzisiert vor allem die Fristen für Hochrisiko-KI-Systeme.
Die Europäische Kommission hatte im November 2025 einen Vorschlag vorgelegt, der einen bedingten Mechanismus vorsah: Fristen sollten an bestimmte Voraussetzungen geknüpft sein. Sowohl der Rat in seiner Position vom 13. März 2026 als auch das Parlament lehnten diesen Ansatz ab. Beide Institutionen wollen stattdessen feste Daten: 2. Dezember 2027 für eigenständige Hochrisiko-KI-Systeme und 2. August 2028 für KI, die in regulierten Produkten verbaut ist, etwa Medizinprodukte, Sicherheitssysteme in Fahrzeugen oder biometrische Erkennungssysteme.
Neue Verbote und Kennzeichnungspflichten
Das Parlament hat in seiner Position zusätzliche Verbote durchgesetzt, die über den ursprünglichen AI Act hinausgehen. Verboten werden soll die Erstellung nicht einvernehmlicher intimer Darstellungen einer Person mittels KI, sogenannte Deepfakes ohne Einwilligung. Ebenfalls verboten werden soll die KI-gestützte Generierung von Material, das sexuellen Kindesmissbrauch darstellt. Diese Verbote richten sich gegen Systeme, die gezielt für solche Zwecke eingesetzt werden, und sollen in das nun verhandelte Änderungspaket aufgenommen werden.
Bereits ab dem 2. August 2026, also noch vor Abschluss der Trilogverhandlungen, gilt eine Kennzeichnungspflicht auf Grundlage des bestehenden AI Acts: KI-generierte Inhalte, die massenmedial verbreitet werden, müssen als solche markiert sein. Das betrifft Texte, Bilder und Videos, die über journalistische oder werbliche Kanäle verbreitet werden. Verstöße können mit Bußgeldern von bis zu vier Prozent des weltweiten Jahresumsatzes geahndet werden.
Wer ist betroffen und was ändert sich konkret
Der Hochrisikobegriff des AI Acts ist eng definiert. Er umfasst KI-Systeme in acht Bereichen: kritische Infrastruktur, Bildung, Beschäftigung, wesentliche Privatdienstleistungen, Strafverfolgung, Grenzkontrolle, Rechtspflege und demokratische Prozesse. Für diese Systeme gelten Transparenz-, Dokumentations- und Risikomanagementpflichten. Anbieter müssen ihre Systeme in einer EU-weiten Datenbank registrieren und regelmäßig prüfen lassen.
Bitkom, der deutsche Digitalverband, begrüßte die Planungssicherheit durch feste Daten. Der Verband fordert aber gleichzeitig, die Bürokratieanforderungen zu begrenzen: Die Dokumentationspflichten für mittelgroße Unternehmen seien im ursprünglichen Gesetzestext zu weitreichend formuliert. TÜV Consulting bezeichnete den Zeitplan als anspruchsvoll, aber machbar. Die Konformitätsbewertung für ein Hochrisiko-KI-System dauere im Schnitt sechs bis achtzehn Monate.
Trilog unter Zeitdruck
Der erste Trilog zwischen Kommission, Rat und Parlament fand Ende März 2026 statt. Am 28. April folgt die zweite Runde. Die zyprische Ratspräsidentschaft strebt einen politischen Abschluss bis Mai 2026 an, damit Parlament und Rat im Juni formal zustimmen können. Die Publikation im Amtsblatt der EU ist für Juli 2026 geplant. Der Zeitplan ist eng: Bis zum 2. August 2026, dem Datum der ersten Anwendungspflichten aus dem ursprünglichen AI Act, soll das Änderungspaket rechtsverbindlich sein.
Bemerkenswert ist, dass Parlament und Rat in diesem Verfahren ungewöhnlich einig auftreten: Beide lehnen den bedingten Mechanismus der Kommission ab und wollen feste Fristen. Das verkürzt erfahrungsgemäß die Trilogdauer, weil die Verhandlungen nicht zwischen zwei Extrempositionen vermitteln müssen, sondern im Wesentlichen eine gemeinsame Position gegen die Kommission durchsetzen.
Was am 28. April entschieden wird
Beim zweiten Trilog in Brüssel steht vor allem die Frage auf dem Tisch, ob die neuen Verbote gegen Deepfakes und KI-generierte Darstellungen von Kindesmissbrauch in unveränderter Form ins Gesetz aufgenommen werden. Der Rat hatte zu diesen Punkten noch keine vollständige Position verabschiedet. Beobachter rechnen damit, dass die Grundsätze erhalten bleiben, die technischen Details aber noch Änderungen erfahren werden. Wenn der Trilog bis Mai abgeschlossen wird, tritt die Novelle mit dem ursprünglichen AI Act bis August 2026 in Kraft. Wer KI-Systeme im Hochrisikobereich betreibt oder entwickelt, hat damit knapp zwei Jahre, um die Anforderungen zu erfüllen.