EU AI Act Chatbot-Pflichten 2026: Was Customer-Service umsetzt
Chatbots im Customer Service sind meist begrenztes Risiko mit Art. 50 Abs. 1 Pflichten: Identitätskennzeichnung, Sprachklarheit, Eskalation zum Mitarbeiter. Bei Hochrisiko-Bezug (Kreditberatung, Versicherungs-Risikoauswertung) plus Art. 26 Deployer-Pflichten und ggf. FRIA.
Chatbot-Klassifizierung
Verboten (Art. 5): manipulative Techniken (Hard-Sell bei depressiven Phasen), Spähen auf Mitarbeiter (Emotionserkennung am Arbeitsplatz, Art. 5 Abs. 1 lit. f).
Hochrisiko (Annex III): Bank-Pre-Approvals (Nr. 5 lit. b), Versicherungs-Risikobewertung (Nr. 5 lit. c), HR-Recruiting (Nr. 4), Sozialleistungs-Vergabe (Nr. 5 lit. a).
Begrenzt (Art. 50): Standard-Customer-Service, Marketing-Chatbots, Voice-Bots in Hotlines.
Konforme Begrüssung
Schwach: "Hallo, wie kann ich helfen?"
Mittel: "Hallo, ich bin Lisa, der Service-Assistent von ACME."
Stark: "Hallo, ich bin Lisa, ein KI-Assistent von ACME. Ich beantworte Ihre Fragen automatisch — Sie können jederzeit 'Mitarbeiter' eingeben für die Übergabe an einen Service-Mitarbeiter."
Eskalations-Trigger
- Eingabe "Mitarbeiter", "Mensch", "Hilfe"
- Negative Sentiment-Detection
- Komplexe Themen ausserhalb Trainingsbereich
- Sensible Themen (Vertragskündigung, Reklamation)
- Wiederholte gleiche Frage (Frust-Detection)
DSGVO-Konformität
- Datenschutzhinweis vor Chat-Beginn
- Einwilligung für Profiling
- Keine besonderen Kategorien Art. 9 ohne Einwilligung
- AVV mit Chatbot-Provider
Logs
- Chat-Logs mind. 6 Monate (Art. 12), DSGVO-pseudonymisiert
- Audit-Logs: Konfigurationsänderungen, Modellupdates
- Vorfall-Logs: Beschwerden, Fehlausgaben
Voice-Bot-Spezifika
Hörbar synthetische Stimme oder explizite Ansage: "Sie sind verbunden mit dem KI-Sprachassistenten von ACME. Für einen Mitarbeiter sagen Sie 'Mitarbeiter'."
Stimm-Klone echter Personen: Deepfake-Pflicht Art. 50 Abs. 4.
Hochrisiko-Chatbot — Beispiel Bank-Pre-Approval
Annex III Nr. 5 lit. b. Zusätzlich zu Standard:
- Vollständige technische Doku (Annex IV)
- Risikomanagement (Art. 9)
- Daten-Governance (Art. 10)
- Logging (Art. 12), Aufsicht (Art. 14)
- Konformitätsbewertung
- CE-Kennzeichnung
- EU-Datenbank-Eintrag
- Bei Bank-Deployer: Art. 26 + ggf. FRIA
5-10x mehr Aufwand als Standard-Chatbot.
Häufige Fehler
- "Wir nutzen KI" reicht nicht — Funktion muss klar werden
- Keine Eskalations-Möglichkeit
- Persönliche Pronomen ohne Identitätskennzeichnung irreführend
- Halluzinierte Versprechen (Rabatte, Verfügbarkeiten)
- DSGVO-Lücke (kein AVV, keine Einwilligung)
- Keine Logs
Häufig gestellte Fragen
Müssen alle Chatbots gekennzeichnet werden?+
Ja nach Art. 50 Abs. 1, ausser KI-Natur ist offensichtlich. Best Practice: immer kennzeichnen.
Wann ist ein Chatbot Hochrisiko?+
Bei Kreditscoring, Versicherungs-Risikobewertung, HR-Recruiting oder Sozialleistungs-Vergabe — Annex III Nr. 4 oder 5.
Wie lange Logs aufbewahren?+
Art. 12 mind. 6 Monate. Praxis: 6-12 Monate Standard, bei Beschwerden 2-5 Jahre.
Reicht ein Disclaimer am Chat-Anfang?+
Ja, wenn klar formuliert und proaktiv.
Sind Voice-Bots strenger reguliert?+
Nicht strenger, aber zusätzliche Pflicht: hörbar synthetische Stimme oder explizite Ansage.
Direkt prüfen — kostenlos
Prüfe in 5 Minuten ob deine KI-Systeme unter den EU AI Act fallen — mit sofortigem Ergebnis.
Kostenloser EU AI Act Check →Dieser Artikel basiert auf der Verordnung (EU) 2024/1689 (EUR-Lex Originaltext) und EU-AI-Office-Guidelines. Wird monatlich aktualisiert. Hinweis: Technische Orientierung — kein Ersatz für Rechtsberatung.
Zuletzt aktualisiert: 4. Mai 2026