EU AI Act Enforcement-Deadline — 2. August 2026 Jetzt prüfen →

Claude (Anthropic) und EU AI Act

Stand: Mai 2026 · Innopulse Consulting GmbH, Zug

Auf einen Blick

Claude (Anthropic) ist ein GPAI-Modell mit Constitutional-AI-Sicherheits-Layer. Anthropic ist Provider mit Art. 53-Pflichten. Deployer-Pflichten richten sich nach Use-Case. Claude Opus überschreitet 10²⁵ FLOP — systemisches Risiko nach Art. 51.

Anthropic positioniert Claude als Sicherheits-fokussiertes Alternative zu GPT. Für DACH-Unternehmen ist die EU-AI-Act-Compliance praktisch identisch zu OpenAI: Anthropic trägt GPAI-Provider-Pflichten, Deployer tragen je nach Use-Case Art. 50, Art. 26 oder Provider-Pflichten bei Modifikation.

Anthropic als GPAI-Provider

Anthropic erfüllt Art. 53-Pflichten: - Detaillierte Tech-Doku der Modelle (Constitutional AI, Trainings-Methodik) - Trainingsdaten-Zusammenfassung (Stand: in Vorbereitung) - Urheberrechts-Konzept (Opt-out für rechtmässige Vorbehaltserklärungen) - Code-of-Practice-Mitarbeit

Claude Opus mit ≥10²⁵ FLOP fällt unter Art. 51 systemisches Risiko: - Modell-Evaluation - Adversarial Testing (Anthropic Red-Team-Programm) - Cybersecurity-Massnahmen - Schwerwiegende-Vorfälle-Meldung an EU AI Office

Claude Modelle und Risikoprofil

Claude Haiku: Kleinstes Modell, schnell, günstig. Wahrscheinlich UNTER 10²⁵ FLOP — kein systemisches Risiko, aber GPAI mit Art. 53.

Claude Sonnet: Mittleres Modell. Trainings-Compute schätzungsweise unter Schwelle.

Claude Opus: Flagship. Vermutlich ÜBER 10²⁵ FLOP — systemisches Risiko, verschärfte Pflichten.

Anthropic publiziert die genauen FLOP-Werte nicht offiziell, aber Branchen-Schätzungen platzieren Opus 4.7 bei ~10²⁶ FLOP.

Deployer-Pflichten bei Claude-Nutzung

Wie bei ChatGPT richten sich Pflichten nach Use-Case: - Minimal: Mitarbeiter-Recherche, Code-Hilfe → nur Art. 4 - Limited: Customer-Bot → Art. 50 Disclosure - Hochrisiko: HR/Kredit/Bildung → Art. 26 + ggf. Provider-Modifikation

Claude bietet API mit Datenschutz-by-default (kein Training auf Inputs). Datenverarbeitungsvertrag mit Anthropic über das Standard-DPA verfügbar.

Häufige Fragen

Ist Claude DSGVO-konform für DACH-Unternehmen?
Anthropic bietet Standard-DPA und Data-Processing-Agreement nach Art. 28 DSGVO. Server-Standort kann je nach Vertrag in EU oder USA sein. Für CH-Unternehmen empfehlenswert: API-Vertrag mit EU-Region und Standardvertragsklauseln.
Wie unterscheidet sich Claude-Compliance von ChatGPT-Compliance?
Praktisch sehr ähnlich. Beide sind GPAI mit Art. 53-Pflichten, beide haben enterprise-tier mit DPA. Unterschied im Marketing: Anthropic positioniert Sicherheit als Differentiator (Constitutional AI), bei ChatGPT liegt Fokus auf Marktreichweite.
Kann ich Claude für eine Hochrisiko-Anwendung lizenzieren?
Anthropic verbietet bestimmte Use-Cases (Massenüberwachung, Wahl-Manipulation) explizit per Acceptable-Use-Policy. Hochrisiko-AI-Act-Use-Cases (HR, Kredit) sind grundsätzlich erlaubt — aber Sie tragen volle Provider-Pflichten als modifizierender Deployer.

Relevante Rechtsgrundlagen

Art. 50 EU AI ActArt. 51 EU AI ActArt. 53 EU AI Act

Klassifizieren Sie Ihre KI-Systeme — kostenlos

In 5 Minuten Risiko-Klasse, FRIA-Pflicht und Compliance-Aufwand für jedes KI-System.

Kostenloser EU AI Act Quick-Check →
Innopulse Consulting GmbH — EU AI Act Compliance

Verfasst auf Basis der Verordnung (EU) 2024/1689, EDPB-Guidelines und CJEU-Rechtsprechung (C-634/21 SCHUFA, C-203/22 Dun & Bradstreet). Gotthardstrasse 30, 6300 Zug, Schweiz · UID CHE-219.727.921.

Hinweis: Technische Orientierung — kein Ersatz für anwaltliche Rechtsberatung.