EU AI Act Enforcement-Deadline — 2. August 2026 Jetzt prüfen →
Alle Ratgeber
Bildung

EU AI Act in Bildung und Schule: Was Lehranstalten 2026 beachten müssen

Zuletzt aktualisiert: Mai 2026·11 min Lesezeit
TL;DR

Annex III Nr. 3 macht KI in Bildung Hochrisiko: Aufnahme-Entscheidungen, Bewertung von Lernergebnissen, Verhaltens-Monitoring im Unterricht, Prüfungs-Cheating-Detection. Lernsoftware ohne Bewertung ist meist nicht Hochrisiko. Emotionserkennung in Schulen ist verboten (Art. 5 Abs. 1 lit. f).

Bildungs-KI ist einer der heikelsten Bereiche unter dem EU AI Act. Schüler:innen sind eine vulnerable Gruppe (Art. 5 Abs. 1 lit. b), Lernen prägt Lebenschancen, und Bewertungen wirken direkt auf Karrieren.

Annex III Nr. 3 — wann KI in Bildung Hochrisiko ist

Vier Untergruppen:

(a) Aufnahme- und Zuweisungsentscheidungen — Wer wird zugelassen? An welche Schule/Klasse? (b) Bewertung von Lernergebnissen — KI, die Noten vergibt oder Lernfortschritt evaluiert (c) Bewertung des Bildungsniveaus — wenn KI den geeigneten Bildungsweg bestimmt (d) Verhaltens-Monitoring während Prüfungen — Online-Proctoring, Cheating-Detection

Verboten — Emotionserkennung in Schulen

Art. 5 Abs. 1 lit. f EU AI Act verbietet Emotionserkennung im Bildungsbereich (mit Ausnahme medizinischer/sicherheitsrelevanter Gründe). Das gilt für:

  • Kameras die "Aufmerksamkeit" oder "Engagement" messen
  • Webcam-Tracking während Online-Klassen
  • "Stress-Detection" in Prüfungssituationen

Wer solche Systeme einsetzt: sofort einstellen — die Frist ist seit 2. Februar 2025 abgelaufen.

Was ist NICHT Hochrisiko?

  • Reine Lerninhalte-Bereitstellung (Lernvideos, Übungsaufgaben)
  • Adaptive Lernpfade ohne Bewertung (KI schlägt nächste Lektion vor, gibt aber keine Noten)
  • Sprachlern-Apps (Duolingo, Babbel) für Selbstlernen
  • Recherche-Assistenten für Schüler (sofern keine Bewertung erfolgt)
  • Verwaltungs-KI (Stundenplanoptimierung, Klassenraumzuweisung — sofern nicht Schüler-spezifische Konsequenzen)

Konkrete Anwendungen

Hochrisiko (Annex III Nr. 3):

  • ATS-ähnliche Systeme für Studienplatz-Vergabe
  • Numerus-Clausus-Algorithmen
  • KI-Bewertung von Aufsätzen oder Klausuren (z.B. Turnitin AI Detection als Notenfaktor)
  • Automatisches Cheating-Detection in Online-Prüfungen (z.B. Proctorio, Honorlock)
  • Plagiats-Detection mit Notenfolge
  • Lernanalytik die Förderbedarf zuweist
  • Spracherkennung in Sprachlernprüfungen mit Notenfolge

Verboten (Art. 5):

  • Emotionserkennung im Klassenzimmer
  • Aufmerksamkeits-Tracking Kameras

Begrenzt (Art. 50 Transparenz):

  • KI-Tutor-Chatbots
  • Lernpfad-Empfehlungssysteme
  • Assistenz-KI für Lehrkräfte

Minimal:

  • Stundenplanoptimierung
  • Lernmaterial-Empfehlung ohne Bewertung
  • Sprachlern-Spiele

Hochschule vs. Schule

Hochschulen sind oft öffentliche Stellen oder Diensteanbieter allgemeinen Interesses → fallen unter FRIA-Pflicht (Art. 27) zwingend.

Schulen (öffentlich) ebenso unter FRIA-Pflicht.

Privatschulen / private EdTech: keine FRIA-Pflicht, aber alle anderen Deployer-Pflichten nach Art. 26.

Spezialfall: Universitäre Forschung

Forschungs-KI ist nach Art. 2 Abs. 6 ausgenommen — solange ausschließlich wissenschaftlich. Aber: sobald in den Studienbetrieb integriert (z.B. KI-Tutor in Lehrveranstaltung), greift der AI Act.

Pflichten für Bildungsträger als Deployer

1. Inventar: Alle in der Schule/Hochschule eingesetzten KI-Systeme erfassen — auch Tools die einzelne Lehrkräfte einsetzen. 2. Klassifikation: Hochrisiko? Begrenzt? Minimal? 3. Bei Hochrisiko-Systemen: - Provider-Konformitätsbewertung anfordern - Bedienungsanleitung verteilen, Lehrkräfte schulen - Menschliche Aufsicht definieren (Lehrkraft prüft, nie blind übernehmen) - Eingangsdaten-Qualität sicherstellen - Logging 6 Monate - Schüler/Eltern informieren (Art. 26 Abs. 11) - FRIA bei öffentlichen Stellen (Art. 27) 4. Datenschutz: DSGVO Art. 9 (besondere Daten bei Minderjährigen — DSFA zwingend, oft Einwilligung beider Eltern nötig).

DACH-Spezifika

Deutschland: KMK (Kultusministerkonferenz) hat im März 2024 Empfehlungen zu KI in Schulen veröffentlicht. Bundesnetzagentur als Marktaufsicht für die Anbieter. Datenschutz: Landesdatenschutzbehörden für staatliche Schulen.

Österreich: Bildungsministerium-Empfehlungen März 2025. RTR voraussichtlich Marktaufsicht. DSB für Datenschutz.

Schweiz: EDK (Erziehungsdirektoren-Konferenz) hat ein Positionspapier zu KI in Schulen herausgegeben. Keine direkte EU-AI-Act-Geltung, aber EDÖB-Erwartungen orientieren sich an EU-Standard.

Praxistipps

  • Mit Lehrkräften kommunizieren: Viele setzen Tools eigenständig ein (ChatGPT, GrammarlyAI). Klare Richtlinien definieren.
  • Eltern transparent informieren: Art. 26 Abs. 11 ist nicht nur Compliance, sondern Vertrauensaufbau.
  • Provider-Verträge prüfen: Wer ist Provider? Liefert er Konformitätsbewertung?
  • DSGVO Art. 35 DSFA mit AI-Act-FRIA verbinden: Eine zusammengeführte Bewertung erfüllt beide Pflichten.

Häufig gestellte Fragen

Darf ich ChatGPT als Lehrkraft im Unterricht einsetzen?+

Ja, mit Auflagen. ChatGPT als allgemeines KI-Tool ist begrenztes Risiko (Art. 50 Transparenzpflicht). Wenn du es zur Notenvergabe oder Lernbewertung nutzt, wird der Use Case Hochrisiko (Annex III Nr. 3). Wenn nur als Recherche-Hilfe oder Lernmaterial-Erstellung — minimal. Schule sollte Richtlinie haben.

Sind Online-Proctoring-Tools verboten?+

Nicht generell verboten, aber Hochrisiko (Annex III Nr. 3(d) — Verhaltens-Monitoring während Prüfungen) und teilweise verboten: jede Form von Emotionserkennung (Art. 5 Abs. 1 lit. f). Tools wie Proctorio, Honorlock dürfen weiter genutzt werden, aber mit voller Annex-III-Compliance: technische Doku, menschliche Aufsicht, Information der Geprüften.

Brauche ich als Schule eine FRIA?+

Öffentliche Schulen und Hochschulen fallen unter Art. 27 — FRIA-Pflicht für Hochrisiko-Systeme. Private Schulen oft nicht direkt, aber bei Diensten allgemeinen Interesses (Pflichtschulen) auch. Die FRIA kann mit DSGVO-DSFA zusammengeführt werden.

Was sagt die KMK zu KI in Schulen?+

Die KMK-Empfehlung von März 2024 betont: KI darf keine Lehrkraft ersetzen, Bewertungen müssen menschlich verantwortet werden, Datenschutz ist zu respektieren. Diese Empfehlungen passen weitgehend zu den Pflichten aus Art. 14 EU AI Act (menschliche Aufsicht).

Direkt prüfen — kostenlos

Prüfe in 5 Minuten ob deine KI-Systeme unter den EU AI Act fallen — mit sofortigem Ergebnis.

Kostenloser EU AI Act Check →
Innopulse Consulting GmbH — EU AI Act Compliance

Dieser Artikel basiert auf der Verordnung (EU) 2024/1689 (EUR-Lex Originaltext) und EU-AI-Office-Guidelines. Wird monatlich aktualisiert. Hinweis: Technische Orientierung — kein Ersatz für Rechtsberatung.

Zuletzt aktualisiert: Mai 2026

EU AI Act Bildung Schule — Annex III Nr. 3 Praxis | ai-risk-check.com