Art. 50 EU AI Act: Transparenzpflichten für Chatbots, Inhalte und Deepfakes
Art. 50 EU AI Act zwingt ab 2. August 2026 zur Kennzeichnung von KI-Interaktion (Chatbots), KI-generierten Inhalten (Wasserzeichen), Deepfakes und Emotionserkennung. Verstösse: bis 15 Mio. EUR oder 3 % Umsatz. Standardisierung: C2PA und SynthID-Wasserzeichen.
Was Art. 50 regelt
Vier Kategorien werden adressiert:
Abs. 1 — KI-Interaktion: Personen, die mit KI interagieren, müssen informiert werden — sofern nicht offensichtlich. Klassiker: Customer-Service-Chatbots, Voice-Assistants.
Abs. 2 — Synthetische Inhalte (Provider-Pflicht): KI-Outputs müssen maschinenlesbar als KI-generiert oder -manipuliert markiert sein.
Abs. 3 — Emotionserkennung und biometrische Kategorisierung (Deployer-Pflicht): Betroffene Personen werden vom Betrieb informiert.
Abs. 4 — Deepfakes (Deployer-Pflicht): Bei Inhalten, die echten Personen ähneln, müssen Deployer offen legen, dass sie künstlich erzeugt sind.
Adressat: Provider oder Deployer
Abs. 2 (Wasserzeichen) → Provider wie OpenAI, Anthropic, Google, Stability AI.
Abs. 1, 3, 4 → Deployer — die einsetzenden Unternehmen.
Standardisierung: C2PA und SynthID
C2PA (Adobe, Microsoft, Sony, BBC, Truepic) — kryptografische Signaturen in Metadaten. Vorteil: maschinenlesbar. Nachteil: Metadaten können beim Speichern verloren gehen.
SynthID (Google DeepMind) — steganografisches Wasserzeichen, pixelweise verteilt. Resistent gegen Crop, Reupload, Format-Konvertierung.
Praxis: Provider kombinieren C2PA + steganografisches Wasserzeichen. Deployer dürfen Wasserzeichen nicht entfernen.
Konforme Chatbot-Kennzeichnung
Schwach (NICHT konform): "Wir nutzen KI."
Stark (konform): "Sie chatten mit einem KI-Assistenten. Ihre Anfrage wird automatisch beantwortet — keine menschliche Bearbeitung. Bei Bedarf können Sie 'Mitarbeiter' eingeben für die Übergabe."
Keine Pflicht zur Modellname-Nennung — aber Klarheit der Funktion.
Deepfake-Kennzeichnung
Sichtbarer Hinweis im Bild/Video plus Metadaten (C2PA).
Ausnahme für Kunst und Satire (Art. 50 Abs. 4): bei künstlerischen, satirischen oder fiktionalen Werken kann auf weniger störende Kennzeichnung zurückgegriffen werden — z. B. Hinweis im Abspann statt sichtbarem Wasserzeichen.
Politische Inhalte: Pflicht strikt. Wahlkampf mit KI-generierten Politiker-Stimmen muss klar gekennzeichnet sein.
Bussgelder
Art. 99 Abs. 4 lit. d: bis 15 Mio. EUR oder 3 % Welt-Jahresumsatz, KMU niedrigerer Wert. Mittelständler mit 30 Mio. Umsatz: max. 900.000 EUR.
Umsetzungs-Checkliste
1. KI-Inventar-Filter — welche Systeme fallen unter Art. 50? 2. Chatbot-Begrüssungs-Anpassung 3. Marketing-Workflow — Deepfake/synthetische Inhalte 4. Customer-Service-Schulung 5. Provider-Vertrag — Art. 50 Abs. 2 vertraglich absichern 6. Test-Plan — 2x jährlich Wasserzeichen-Stichprobe
Häufig gestellte Fragen
Wer ist Adressat von Art. 50?+
Mix: Abs. 2 an Provider, Abs. 1, 3, 4 an Deployer.
Wie streng muss Chatbot-Kennzeichnung sein?+
Beim ersten Kontakt deutlich sichtbar in Nutzersprache. Keine Modellname-Pflicht, aber Klarheit der Funktion.
Was ist mit Satire-Deepfakes?+
Art. 50 Abs. 4 letzter Unterabsatz: bei künstlerischen oder satirischen Werken weniger störende Kennzeichnung möglich. Politische Deepfakes bleiben strikt.
Welcher Wasserzeichen-Standard wird Pflicht?+
Kein Standard ist gesetzlich vorgeschrieben. Praxis: C2PA-Metadaten plus steganografische Wasserzeichen wie SynthID.
Wie hoch sind Bussgelder?+
Bis 15 Mio. EUR oder 3 % Welt-Jahresumsatz. KMU niedrigerer Wert.
Direkt prüfen — kostenlos
Prüfe in 5 Minuten ob deine KI-Systeme unter den EU AI Act fallen — mit sofortigem Ergebnis.
Kostenloser EU AI Act Check →Dieser Artikel basiert auf der Verordnung (EU) 2024/1689 (EUR-Lex Originaltext) und EU-AI-Office-Guidelines. Wird monatlich aktualisiert. Hinweis: Technische Orientierung — kein Ersatz für Rechtsberatung.
Zuletzt aktualisiert: 4. Mai 2026