KI in der Schule: Im August kommt das EU-Gesetz
Jede zweite Lehrkraft in Deutschland nutzt bereits KI-Tools für den Unterricht oder die Vorbereitung. Gleichzeitig haben 88 Prozent der Lehrkräfte sich nach eigenen Angaben bislang weniger intensiv oder gar nicht mit KI-Regelungen auseinandergesetzt. Das zeigt der Trendmonitor Spezial der Deutschen Telekom Stiftung vom März 2026. Dieses Missverhältnis wird in knapp 100 Tagen rechtlich relevant: Am 2. August 2026 treten die vollständigen Anforderungen des EU AI Act für Hochrisiko-KI-Systeme in Kraft und Bildung ist einer der acht Bereiche, die das Gesetz explizit als hochriskant einstuft.
Was der EU AI Act für Schulen bedeutet
Der EU AI Act unterscheidet zwischen verschiedenen Risikoklassen. Für den Schulbereich entscheidend ist Anhang III des Gesetzes, der KI-Systeme in der Bildung pauschal als Hochrisiko einstuft, sobald sie bei folgenreichen Entscheidungen zum Einsatz kommen: der Vergabe von Noten oder Notenvorschlägen, der automatisierten Prüfungsaufsicht oder Entscheidungen über Schulzulassungen. Hochrisiko-Systeme unterliegen ab August strengen Anforderungen: Schulen und Schulträger müssen Risiken systematisch bewerten, eine nachvollziehbare menschliche Aufsicht gewährleisten und dokumentieren können, wie KI-gestützte Entscheidungen zustande kommen. Lehrkräfte dürfen sich nicht blind auf KI-Bewertungen verlassen.
Einiges ist direkt verboten. KI-Systeme, die in Schulen Emotionen von Schülerinnen und Schülern ableiten, etwa über Gesichtserkennung zur Konzentrationsmessung, fallen unter die Verbotsliste des AI Act. Automatische Notengebung durch ein KI-System ohne Möglichkeit zur menschlichen Überprüfung und Korrektur ist ebenfalls unzulässig. Diese Verbote gelten unabhängig davon, ob die Software von einer Schule selbst oder vom Schulträger eingesetzt wird.
Das deutsche Durchführungsgesetz, das KI-Marktüberwachungs- und Innovationsförderungsgesetz (KI-MIG), hat das Bundeskabinett im Februar 2026 beschlossen. Es regelt die nationale Marktüberwachung und legt fest, welche Behörden Sanktionen verhängen können. Bußgelder von bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes sind für Verstöße vorgesehen, primär für Anbieter von KI-Systemen. Aber auch Schulen als Betreiber tragen Mitverantwortung für die ordnungsgemäße Nutzung.
Eine Lücke zwischen Nutzung und Wissen
Laut dem Bitkom-Verband hat bereits jede zweite Lehrkraft KI für schulische Zwecke genutzt. Das deckt ein breites Spektrum ab: ChatGPT für Unterrichtsplanung, KI-gestützte Schreibassistenten für Schülerinnen und Schüler, adaptive Lernsoftware die individuelle Übungen generiert und automatisierte Feedback-Tools für Aufsätze. Viele dieser Anwendungen fallen noch nicht in die Hochrisiko-Kategorie, weil sie keine verbindlichen Noten- oder Zulassungsentscheidungen treffen. Aber die Grenze ist unscharf und viele Lehrkräfte kennen sie nicht.
87 Prozent der im Trendmonitor befragten Lehrkräfte wünschen sich verständliche und einfach umsetzbare KI-Regelungen für ihren Schulalltag. Derzeit existieren diese kaum. Die Kultusministerkonferenz hat im Oktober 2024 Handlungsempfehlungen zum Umgang mit KI in schulischen Bildungsprozessen verabschiedet. Sie fordert neue Prüfungsformate, die kritisches Denken und kollaboratives Arbeiten bewerten statt Informationsreproduktion. Mündliche Prüfungen sollen wieder stärker in den Vordergrund rücken. Die Empfehlungen sind nicht bindend und die Umsetzung obliegt den sechzehn Bundesländern mit ihren je eigenen Schulgesetzen.
Digitalpakt 2.0: Geld für Hardware, nicht für Governance
Bund und Länder haben sich im Frühjahr 2026 auf den Digitalpakt 2.0 geeinigt: fünf Milliarden Euro bis 2033, je zur Hälfte finanziert vom Bund und von den Ländern, für Nordrhein-Westfalen allein rund eine Milliarde. Der Deutsche Philologenverband begrüßt die Einigung, mahnt aber, dass die konkreten Bedarfe an einzelnen Schulen ermittelt werden müssten, bevor Geld fließe. Welche Geräte in welchen Fachbereichen wirklich gebraucht werden, sei bislang nicht systematisch erhoben.
Was der Digitalpakt 2.0 nicht löst: Die Frage, wie Schulen mit den rechtlichen Anforderungen des AI Act umgehen sollen. Hardware lässt sich kaufen, Compliance-Strukturen für Hochrisiko-KI nicht. Schulen bräuchten klare Vorgaben, welche ihrer eingesetzten Tools unter die Hochrisiko-Kategorie fallen, wie sie Risikoprüfungen dokumentieren und was bei einem Verstoß auf wen zukommt. Diese Vorgaben fehlen bislang auf Länderebene weitgehend.
Was das für Schüler und Eltern bedeutet
Die meisten Schülerinnen und Schüler sowie ihre Eltern werden von den EU-Regelungen nichts mitbekommen, solange Schulen keine Hochrisiko-Systeme einsetzen. Wer jedoch in einer Schule lernt, die KI-gestützte Diagnosesysteme für Lernstände nutzt oder Bewerbungsverfahren durch KI-Screening unterstützt, hat ab August das Recht auf nachvollziehbare Entscheidungen, menschliche Überprüfung und datenschutzkonforme Verarbeitung. Eltern können von Schulträgern verlangen zu wissen, welche KI-Systeme eingesetzt werden und wie diese klassifiziert sind.
Knapp 100 Tage bis zur Deadline
Bis zum 2. August 2026 bleibt Schulen und Schulträgern, die bereits Hochrisiko-Systeme einsetzen, wenig Zeit für eine ordnungsgemäße Konformitätsbewertung. Für den Normalbetrieb, in dem Lehrkräfte ChatGPT für Unterrichtsplanung nutzen oder Schülerinnen und Schüler KI-Schreibassistenten verwenden, ändert sich vorerst wenig, solange diese Tools keine verbindlichen Noten vergeben oder Zulassungsentscheidungen treffen. Der eigentliche Stresstest kommt, wenn Schulen beginnen, KI tiefer in Bewertungsprozesse zu integrieren. Die KMK hat dazu Empfehlungen gegeben, aber keine verbindlichen Standards. Die Frage, welches Bundesland zuerst klare Antworten liefert, ist bislang offen.