Voice-Cloning: Deepfake-Pflichten nach EU AI Act
Wir nutzen KI-Voice-Cloning (ElevenLabs, Descript, etc.)
Begrenztes RisikoRange: limited / high_risk
Rechtliche Grundlage
Artikel
Art. 50(4) EU AI ActArt. 50(2) EU AI ActDSGVO Art. 9
Erwägungsgründe
Recital 134Recital 135
Praxis-Beispiele
Hochrisiko
CEO-Stimme geklont für Mitarbeiter-Videos ohne Einwilligung → DSGVO-Verletzung + Deepfake.
Grenzfall
Voice-Over mit klar fiktionaler synthetischer Stimme — Art. 50(2).
Pflicht-Trigger für diesen Fall
- Wirkt direkt auf natürliche Personen
- Verarbeitet biometrische Daten
- Nutzt General-Purpose AI (GPAI)
- Generiert synthetische Inhalte
Zusätzliche regulatorische Overlays
GDPRNDSG REVDSG CH
Neben dem AI Act greifen für diesen Fall sektorale Vorschriften, die zusätzliche Pflichten auslösen können.
Was muss konkret geklärt werden?
Ob Dein konkreter Use-Case unter Begrenztes Risiko fällt, hängt von folgenden Detailfragen ab:
- Voice-Cloning echter Person → Art. 50(4) Deepfake-Disclosure + DSGVO Art. 9 Einwilligung.
- Fiktionale Stimme → Art. 50(2) synthetic content.
- Sieht der Endnutzer den KI-Output direkt?
Verwandte Anwendungsfälle
Klassifiziere Deinen konkreten Fall
Der Sector-First Wizard nimmt diesen Use-Case als Vorlage und stellt nur die wirklich relevanten Rückfragen — Du bekommst Risikoklasse, Pflichten-Liste und Audit-Package in unter 5 Minuten.
Assessment starten