EU AI Act Enforcement-Deadline — 2. August 2026 Jetzt prüfen →

GPAI: General-Purpose AI nach EU AI Act

Stand: Mai 2026 · Innopulse Consulting GmbH, Zug

Auf einen Blick

General-Purpose AI (GPAI) sind Modelle mit signifikanter Allgemeinheit, die viele Aufgaben kompetent erfüllen. Beispiele: GPT-4, Claude, Gemini, Llama. Art. 51-55 EU AI Act regelt Anbieter-Pflichten. Modelle ab 10²⁵ FLOP gelten als systemisch riskant mit verschärften Pflichten.

GPAI war eine späte Hinzufügung zum EU AI Act und reflektiert die Realität, dass Foundation Models nicht in das ursprüngliche Risikoklassen-Schema passen. Sie sind weder per se Hochrisiko noch minimal — ihre Risiko-Charakterisierung hängt vom Einsatz ab. Der AI Act adressiert das durch separate Pflichten für GPAI-Anbieter (upstream) und nutzt für Deployer das normale Risiko-Schema (downstream).

Definition GPAI (Art. 3 Nr. 63)

Ein GPAI-Modell ist ein KI-Modell, das durch Training mit grossen Datenmengen mittels selbstüberwachten Lernens erhebliche Allgemeinheit aufweist und in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Beispiele: alle Large Language Models (GPT, Claude, Gemini, Llama, Mistral) und multimodale Modelle (GPT-4o, Gemini Vision).

Pflichten für GPAI-Anbieter (Art. 53)

  • Technische Dokumentation des Modells und Trainings-Prozesses
  • Information für nachgelagerte Anbieter (downstream-Provider)
  • Konzept für Compliance mit EU-Urheberrecht (DSM-Richtlinie Art. 4)
  • Veröffentlichung einer detaillierten Zusammenfassung der Trainingsdaten
  • Mitwirkung bei Code of Practice (Mai 2025 in Vorbereitung)

Systemisches Risiko (Art. 51)

Modelle mit kumuliertem Trainings-Compute ≥ 10²⁵ FLOP gelten automatisch als systemisch riskant. Beispiele (Stand 2026): GPT-4, Claude 3 Opus, Gemini Ultra, Llama 3 405B. Zusätzliche Pflichten: - Modell-Evaluation - Adversarial Testing (Red-Teaming) - Risikoassessment systemischer Risiken - Cybersecurity-Massnahmen - Schwerwiegende-Vorfälle-Meldung an EU AI Office

Pflichten für GPAI-Deployer

Wer GPAI in eigene Produkte integriert, ist je nach Anwendungsfall: - Pure Pass-Through (Chatbot mit GPT): Art. 50 Transparenz-Pflicht - Annex-III-Use-Case: Hochrisiko-Pflichten als Provider gelten - Significant Modification: Wer GPAI auf Hochrisiko-Anwendung fine-tuned, wird selbst zum Provider mit Annex-III-Pflichten

Key-Question: Welcher Anteil der Wertschöpfung kommt vom GPAI vs. eigenem Engineering?

Häufige Fragen

Ist ChatGPT ein GPAI-Modell?
GPT-4 ist das GPAI-Modell. ChatGPT ist die Anwendung, die auf GPT-4 aufbaut. OpenAI ist GPAI-Anbieter (Art. 53), die Anwendung selbst unterliegt Art. 50 (Transparenz) und ggf. Annex-III bei Hochrisiko-Use-Cases.
Was passiert wenn ein Modell weniger als 10^25 FLOP hat?
Es ist normales GPAI ohne systemisches Risiko. Pflichten beschränken sich auf Art. 53 (Tech-Doku, Urheberrecht, Trainings-Daten-Zusammenfassung). Keine Red-Team-Pflicht oder Vorfall-Meldung.
Bin ich GPAI-Anbieter wenn ich Llama fine-tune?
Hängt von der Modifikation ab. Light-Fine-Tuning ohne wesentliche Verhaltensänderung: nein, Sie bleiben Deployer. Wesentliche Anpassung (eigenes Pre-Training-Stadium oder Architekturänderung): ja, Sie werden zum GPAI-Anbieter mit Art. 53-Pflichten.

Relevante Rechtsgrundlagen

Art. 3 Nr. 63 EU AI ActArt. 51 EU AI ActArt. 53 EU AI ActArt. 55 EU AI Act

Klassifizieren Sie Ihre KI-Systeme — kostenlos

In 5 Minuten Risiko-Klasse, FRIA-Pflicht und Compliance-Aufwand für jedes KI-System.

Kostenloser EU AI Act Quick-Check →
Innopulse Consulting GmbH — EU AI Act Compliance

Verfasst auf Basis der Verordnung (EU) 2024/1689, EDPB-Guidelines und CJEU-Rechtsprechung (C-634/21 SCHUFA, C-203/22 Dun & Bradstreet). Gotthardstrasse 30, 6300 Zug, Schweiz · UID CHE-219.727.921.

Hinweis: Technische Orientierung — kein Ersatz für anwaltliche Rechtsberatung.