EU AI Act Enforcement-Deadline — 2. August 2026 Jetzt prüfen →
Alle Ratgeber
Chatbot

EU AI Act Chatbot-Pflichten 2026: Was Customer-Service umsetzt

Zuletzt aktualisiert: 4. Mai 2026·7 Min Lesezeit
TL;DR

Chatbots im Customer Service sind meist begrenztes Risiko mit Art. 50 Abs. 1 Pflichten: Identitätskennzeichnung, Sprachklarheit, Eskalation zum Mitarbeiter. Bei Hochrisiko-Bezug (Kreditberatung, Versicherungs-Risikoauswertung) plus Art. 26 Deployer-Pflichten und ggf. FRIA.

Chatbot-Klassifizierung

Verboten (Art. 5): manipulative Techniken (Hard-Sell bei depressiven Phasen), Spähen auf Mitarbeiter (Emotionserkennung am Arbeitsplatz, Art. 5 Abs. 1 lit. f).

Hochrisiko (Annex III): Bank-Pre-Approvals (Nr. 5 lit. b), Versicherungs-Risikobewertung (Nr. 5 lit. c), HR-Recruiting (Nr. 4), Sozialleistungs-Vergabe (Nr. 5 lit. a).

Begrenzt (Art. 50): Standard-Customer-Service, Marketing-Chatbots, Voice-Bots in Hotlines.

Konforme Begrüssung

Schwach: "Hallo, wie kann ich helfen?"

Mittel: "Hallo, ich bin Lisa, der Service-Assistent von ACME."

Stark: "Hallo, ich bin Lisa, ein KI-Assistent von ACME. Ich beantworte Ihre Fragen automatisch — Sie können jederzeit 'Mitarbeiter' eingeben für die Übergabe an einen Service-Mitarbeiter."

Eskalations-Trigger

  • Eingabe "Mitarbeiter", "Mensch", "Hilfe"
  • Negative Sentiment-Detection
  • Komplexe Themen ausserhalb Trainingsbereich
  • Sensible Themen (Vertragskündigung, Reklamation)
  • Wiederholte gleiche Frage (Frust-Detection)

DSGVO-Konformität

  • Datenschutzhinweis vor Chat-Beginn
  • Einwilligung für Profiling
  • Keine besonderen Kategorien Art. 9 ohne Einwilligung
  • AVV mit Chatbot-Provider

Logs

  • Chat-Logs mind. 6 Monate (Art. 12), DSGVO-pseudonymisiert
  • Audit-Logs: Konfigurationsänderungen, Modellupdates
  • Vorfall-Logs: Beschwerden, Fehlausgaben

Voice-Bot-Spezifika

Hörbar synthetische Stimme oder explizite Ansage: "Sie sind verbunden mit dem KI-Sprachassistenten von ACME. Für einen Mitarbeiter sagen Sie 'Mitarbeiter'."

Stimm-Klone echter Personen: Deepfake-Pflicht Art. 50 Abs. 4.

Hochrisiko-Chatbot — Beispiel Bank-Pre-Approval

Annex III Nr. 5 lit. b. Zusätzlich zu Standard:

  • Vollständige technische Doku (Annex IV)
  • Risikomanagement (Art. 9)
  • Daten-Governance (Art. 10)
  • Logging (Art. 12), Aufsicht (Art. 14)
  • Konformitätsbewertung
  • CE-Kennzeichnung
  • EU-Datenbank-Eintrag
  • Bei Bank-Deployer: Art. 26 + ggf. FRIA

5-10x mehr Aufwand als Standard-Chatbot.

Häufige Fehler

  • "Wir nutzen KI" reicht nicht — Funktion muss klar werden
  • Keine Eskalations-Möglichkeit
  • Persönliche Pronomen ohne Identitätskennzeichnung irreführend
  • Halluzinierte Versprechen (Rabatte, Verfügbarkeiten)
  • DSGVO-Lücke (kein AVV, keine Einwilligung)
  • Keine Logs

Häufig gestellte Fragen

Müssen alle Chatbots gekennzeichnet werden?+

Ja nach Art. 50 Abs. 1, ausser KI-Natur ist offensichtlich. Best Practice: immer kennzeichnen.

Wann ist ein Chatbot Hochrisiko?+

Bei Kreditscoring, Versicherungs-Risikobewertung, HR-Recruiting oder Sozialleistungs-Vergabe — Annex III Nr. 4 oder 5.

Wie lange Logs aufbewahren?+

Art. 12 mind. 6 Monate. Praxis: 6-12 Monate Standard, bei Beschwerden 2-5 Jahre.

Reicht ein Disclaimer am Chat-Anfang?+

Ja, wenn klar formuliert und proaktiv.

Sind Voice-Bots strenger reguliert?+

Nicht strenger, aber zusätzliche Pflicht: hörbar synthetische Stimme oder explizite Ansage.

Direkt prüfen — kostenlos

Prüfe in 5 Minuten ob deine KI-Systeme unter den EU AI Act fallen — mit sofortigem Ergebnis.

Kostenloser EU AI Act Check →
Innopulse Consulting GmbH

Dieser Artikel basiert auf der Verordnung (EU) 2024/1689 (EUR-Lex Originaltext) und EU-AI-Office-Guidelines. Wird monatlich aktualisiert. Hinweis: Technische Orientierung — kein Ersatz für Rechtsberatung.

Zuletzt aktualisiert: 4. Mai 2026

EU AI Act Chatbot — Pflichten 2026 | ai-risk-check.com