EU AI Act Enforcement-Deadline — 2. August 2026 Jetzt prüfen →
GPAI & LLM-Anwendungen·Synthetische Inhalte (Art. 50.2)

Voice-Cloning: Deepfake-Pflichten nach EU AI Act

Wir nutzen KI-Voice-Cloning (ElevenLabs, Descript, etc.)

Begrenztes RisikoRange: limited / high_risk

Rechtliche Grundlage

Artikel

Art. 50(4) EU AI ActArt. 50(2) EU AI ActDSGVO Art. 9

Erwägungsgründe

Recital 134Recital 135

Praxis-Beispiele

Hochrisiko

CEO-Stimme geklont für Mitarbeiter-Videos ohne Einwilligung → DSGVO-Verletzung + Deepfake.

Grenzfall

Voice-Over mit klar fiktionaler synthetischer Stimme — Art. 50(2).

Pflicht-Trigger für diesen Fall

  • Wirkt direkt auf natürliche Personen
  • Verarbeitet biometrische Daten
  • Nutzt General-Purpose AI (GPAI)
  • Generiert synthetische Inhalte

Zusätzliche regulatorische Overlays

GDPRNDSG REVDSG CH

Neben dem AI Act greifen für diesen Fall sektorale Vorschriften, die zusätzliche Pflichten auslösen können.

Was muss konkret geklärt werden?

Ob Dein konkreter Use-Case unter Begrenztes Risiko fällt, hängt von folgenden Detailfragen ab:

  • Voice-Cloning echter Person → Art. 50(4) Deepfake-Disclosure + DSGVO Art. 9 Einwilligung.
  • Fiktionale Stimme → Art. 50(2) synthetic content.
  • Sieht der Endnutzer den KI-Output direkt?

Verwandte Anwendungsfälle

Klassifiziere Deinen konkreten Fall

Der Sector-First Wizard nimmt diesen Use-Case als Vorlage und stellt nur die wirklich relevanten Rückfragen — Du bekommst Risikoklasse, Pflichten-Liste und Audit-Package in unter 5 Minuten.

Assessment starten
KI-Voice-Cloning — Art. 50(4) Deepfake EU AI Act | ai-risk-check.com