EU AI Act Enforcement-Deadline — 2. August 2026 Jetzt prüfen →
Gesundheitswesen·Transparenz (Art. 50)

Mental-Health-Chatbot: EU AI Act Pflichten

Wir bieten einen Chatbot für mentale Gesundheit / Therapie-Begleitung an

Begrenztes RisikoRange: limited / high_risk

Rechtliche Grundlage

Artikel

Art. 50(1) EU AI ActArt. 5(1)(b) EU AI ActMDR 2017/745DSGVO Art. 9

Erwägungsgründe

Recital 132Recital 29

Praxis-Beispiele

Verboten

Bot zielt auf suizidgefährdete Jugendliche und manipuliert in schadhafte Richtung — Art. 5(1)(b).

Hochrisiko

Chatbot diagnostiziert Depression und schlägt Medikamente vor — MDR + Annex I.

Grenzfall

Chatbot bietet kognitive Übungen + Stimmungs-Tracking — limited mit Vulnerable-Group-Review.

Pflicht-Trigger für diesen Fall

  • Wirkt direkt auf natürliche Personen
  • Profiling natürlicher Personen
  • Entscheidungsunterstützung (Mensch im Loop)
  • Nutzt General-Purpose AI (GPAI)
  • Generiert synthetische Inhalte
  • Verletzliche Gruppen betroffen möglich
  • Sicherheits-Komponente (Annex I) möglich

Zusätzliche regulatorische Overlays

GDPRNDSG REVDSG CHMDR MEDICAL DEVICES

Neben dem AI Act greifen für diesen Fall sektorale Vorschriften, die zusätzliche Pflichten auslösen können.

Was muss konkret geklärt werden?

Ob Dein konkreter Use-Case unter Begrenztes Risiko fällt, hängt von folgenden Detailfragen ab:

  • Bot mit Therapie-Empfehlung → Medizinprodukt-Schwelle erreicht (MDR + Annex I).
  • Exploitation vulnerable Gruppen (Suizidalität) kann Art. 5(1)(b) Verbot triggern.
  • Sieht der Endnutzer den KI-Output direkt?

Verwandte Anwendungsfälle

Klassifiziere Deinen konkreten Fall

Der Sector-First Wizard nimmt diesen Use-Case als Vorlage und stellt nur die wirklich relevanten Rückfragen — Du bekommst Risikoklasse, Pflichten-Liste und Audit-Package in unter 5 Minuten.

Assessment starten
Mental-Health-Chatbot — Art. 50 + MDR + Art. 5(1)(b) | ai-risk-check.com