GPAI: General-Purpose AI nach EU AI Act
Stand: Mai 2026 · Innopulse Consulting GmbH, Zug
Auf einen Blick
General-Purpose AI (GPAI) sind Modelle mit signifikanter Allgemeinheit, die viele Aufgaben kompetent erfüllen. Beispiele: GPT-4, Claude, Gemini, Llama. Art. 51-55 EU AI Act regelt Anbieter-Pflichten. Modelle ab 10²⁵ FLOP gelten als systemisch riskant mit verschärften Pflichten.
GPAI war eine späte Hinzufügung zum EU AI Act und reflektiert die Realität, dass Foundation Models nicht in das ursprüngliche Risikoklassen-Schema passen. Sie sind weder per se Hochrisiko noch minimal — ihre Risiko-Charakterisierung hängt vom Einsatz ab. Der AI Act adressiert das durch separate Pflichten für GPAI-Anbieter (upstream) und nutzt für Deployer das normale Risiko-Schema (downstream).
Definition GPAI (Art. 3 Nr. 63)
Ein GPAI-Modell ist ein KI-Modell, das durch Training mit grossen Datenmengen mittels selbstüberwachten Lernens erhebliche Allgemeinheit aufweist und in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Beispiele: alle Large Language Models (GPT, Claude, Gemini, Llama, Mistral) und multimodale Modelle (GPT-4o, Gemini Vision).
Pflichten für GPAI-Anbieter (Art. 53)
- Technische Dokumentation des Modells und Trainings-Prozesses
- Information für nachgelagerte Anbieter (downstream-Provider)
- Konzept für Compliance mit EU-Urheberrecht (DSM-Richtlinie Art. 4)
- Veröffentlichung einer detaillierten Zusammenfassung der Trainingsdaten
- Mitwirkung bei Code of Practice (Mai 2025 in Vorbereitung)
Systemisches Risiko (Art. 51)
Modelle mit kumuliertem Trainings-Compute ≥ 10²⁵ FLOP gelten automatisch als systemisch riskant. Beispiele (Stand 2026): GPT-4, Claude 3 Opus, Gemini Ultra, Llama 3 405B. Zusätzliche Pflichten: - Modell-Evaluation - Adversarial Testing (Red-Teaming) - Risikoassessment systemischer Risiken - Cybersecurity-Massnahmen - Schwerwiegende-Vorfälle-Meldung an EU AI Office
Pflichten für GPAI-Deployer
Wer GPAI in eigene Produkte integriert, ist je nach Anwendungsfall: - Pure Pass-Through (Chatbot mit GPT): Art. 50 Transparenz-Pflicht - Annex-III-Use-Case: Hochrisiko-Pflichten als Provider gelten - Significant Modification: Wer GPAI auf Hochrisiko-Anwendung fine-tuned, wird selbst zum Provider mit Annex-III-Pflichten
Key-Question: Welcher Anteil der Wertschöpfung kommt vom GPAI vs. eigenem Engineering?
Häufige Fragen
Ist ChatGPT ein GPAI-Modell?
Was passiert wenn ein Modell weniger als 10^25 FLOP hat?
Bin ich GPAI-Anbieter wenn ich Llama fine-tune?
Relevante Rechtsgrundlagen
Art. 3 Nr. 63 EU AI ActArt. 51 EU AI ActArt. 53 EU AI ActArt. 55 EU AI ActKlassifizieren Sie Ihre KI-Systeme — kostenlos
In 5 Minuten Risiko-Klasse, FRIA-Pflicht und Compliance-Aufwand für jedes KI-System.
Kostenloser EU AI Act Quick-Check →Verfasst auf Basis der Verordnung (EU) 2024/1689, EDPB-Guidelines und CJEU-Rechtsprechung (C-634/21 SCHUFA, C-203/22 Dun & Bradstreet). Gotthardstrasse 30, 6300 Zug, Schweiz · UID CHE-219.727.921.
Hinweis: Technische Orientierung — kein Ersatz für anwaltliche Rechtsberatung.