Zum Inhalt gehen

Grauzonen im AI Act: Wann ein KI-Modell als GPAI gilt – und welche Compliance-Risiken damit verbunden sind 

Jana Schöneborn
09.10.2025
capgemini-invent

General Purpose AI-Modelle sind vielseitig einsetzbare KI-Systeme, die besondere regulatorische Anforderungen erfüllen müssen. Im EU AI Act wird festgelegt, wann ein Modell als GPAI gilt und welche Pflichten für Anbieter entstehen – etwa bei Modifikationen durch Fine-Tuning oder bei kommerzieller Bereitstellung.

Wir bedanken uns vorab bei Autor*innen Maximilian Vonthien, Sara Kapur und David Rappenglück sowie den Experten Philipp Heinzke und Björn Herbers von CMS sowie Oliver Stuke, Jülide Bredée und Moritz von Negenborn von Capgemini Invent für die Zusammenarbeit.

Der EU AI Act hat mit der Kategorie der General Purpose AI Modelle (GPAI) (Artikel 51-56 des AI Acts) eine neue regulatorische Dimension geschaffen, die dem vielfältigen Einsatz dieser Modelle Rechnung trägt. Wie im ersten Artikel dieser Serie dargelegt, bringt die breite Anwendbarkeit von GPAI-Modellen besondere Compliance-Anforderungen mit sich. Gerade ihre Vielseitigkeit macht diese Modelle sowohl sehr leistungsfähig als auch schwer zu regulieren.

Ein General Purpose AI-Modell ist gemäß Artikel 3(63) des EU AI Act definiert als: 

„KI-Modell, das eine erhebliche allgemeine Verwendbarkeit aufweist und in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann.” 

Diese Definition umfasst typischerweise multimodale Modelle (z.B, Text-,Bild- und Audio-Modelle), die nicht für einen spezifischen Anwendungsfall trainiert wurden.  

Sanktionen

Verstöße gegen GPAI-Pflichten können für Unternehmen teuer werden: Sie ziehen Geldbußen von bis zu 3% des weltweiten Jahresumsatzes oder 15 Millionen Euro nach sich – je nachdem, welcher Betrag höher ist.  

Wann gilt ein Modell als GPAI? Die kritischen Schwellenwerte 

Die Einstufung als GPAI-Modell hängt nicht allein von der Funktionalität ab, sondern auch von messbaren Schwellenwerten – insbesondere der verwendeten Rechenleistung (Compute) gemessen in FLOPs (Floating Point Operations) während des Trainings, die Vielfalt der Einsatzmöglichkeiten sowie die Multimodalität des Outputs. 

Der AI Act definiert zwei GPAI Kategorien: 

1. Standard-GPAI-Modelle: Hier ist ein Indikationswert laut Verhaltenskodex 10²³ FLOPs  

2. GPAI-Modelle mit systemischem Risiko: Schwellenwert 10²⁵ FLOPs 

Mit einer Klassifikation als GPAI mit systemischem Risiko unterliegen Modelle verschärften Transparenz- und Risikomanagement-Pflichten. 

Abbildung 1: Grauzonen im EU AI Act

Grauzone: Rollenwechsel durch Finetuning  

Weniger eindeutig ist die Rollendefinition – und die damit einhergehenden Verpflichtungen – bei Modellen, die durch Fine-Tuning zu eigenständigen GPAI-Modellen werden.  

Die zentrale Herausforderung: Wer GPAI-Modelle modifiziert, integriert oder bereitstellt, muss Schwellenwerte und Nutzungsszenarien präzise bewerten. Dadurch kann ein Unternehmen unbeabsichtigt in die Rolle des Anbieters fallen – mit allen damit verbundenen Compliance-Pflichten. 

Ein Unternehmen wird zum GPAI-Anbieter, wenn alle drei folgenden Kriterien erfüllt sind: 

  • Modifikation über dem Schwellenwert: Nachtraining mit mindestens 1/3 der ursprünglichen Rechenleistung. Ein aktueller Leitfaden der EU wird hier konkreter und gibt an, ab 3.33 × 10²² FLOPs könne von einem neuen Modell ausgegangen werden.   
  • Inverkehrbringen: Einführung zur kommerziellen oder nicht-kommerziellen Nutzung auf dem Markt 
  • Bereitstellung unter eigenem Namen: Das Modell wird unter dem Namen oder der Marke des Unternehmens angeboten 

Beispiel 1 Fine-Tuning führt zur Anbieterrolle: Ein Unternehmen nutzt ein GPAI-Modell, das mit 10²⁴ FLOPS trainiert wurde, und führt ein Fine-Tuning mit 4 × 10²³ FLOPS durch. Da dies mehr als 1/3 der ursprünglichen Compute entspricht, gilt das Unternehmen als Anbieter eines neuen GPAI-Modells – mit allen damit verbundenen Pflichten. 

Beispiel 2 Schwellenwert überschritten, aber kein GPAI: Ein Unternehmen nutzt ein GPAI-Modell, das mit 10²⁴ FLOPS trainiert wurde, und führt ein Fine-Tuning mit 4 × 10²³ FLOPS durch. Genutzt wird lediglich eine Modalität, Audio-to-Audio. Das Modell erfüllt damit, obwohl es über dem Schwellwert von einem Drittel liegt, nicht die Anforderungen an ein GPAI-Modell, da die Bedingung der Multimodalität nicht erfüllt ist. Das Unternehmen unterliegt entsprechend nicht den mit der Rolle eines GPAI-Anbieters einhergehenden Pflichten. Empfehlenswert ist dennoch, das Modell und seine Verwendung zu monitoren sowie jegliches Fine-Tuning zu dokumentieren, um den Anforderungen an eine in Zukunft möglicherweise geänderten Rolle gerecht werden zu können.  

Diese Regelungen sorgen für Interpretationsspielraum und damit einhergehend Unsicherheiten: Viele Unternehmen führen Anpassungen durch, ohne die Compute-Schwellen zu dokumentieren oder zu prüfen. Das Risiko einer nachträglichen Reklassifizierung und der damit einhergehenden Dokumentation ist erheblich. 

Ausnahme: Rein interne Nutzung 

Aus Erwägungsgrund 97 des AI Act lässt sich entnehmen, dass GPAI-Modelle, die ausschließlich für interne Zwecke entwickelt und genutzt werden, nicht unter die Anbieterpflichten. Diese Ausnahme dürfte jedoch eng auszulegen sein: 

  1. Das Modell darf nicht auf dem Markt bereitgestellt werden. 
  2. Es darf nicht in Produkte oder Dienstleistungen integriert werden, die Dritten zur Verfügung gestellt werden. 
  3. Die Rechte natürlicher Personen dürfen nicht beeinträchtigt werden. 
  4. Die Ausnahme gilt nicht für GPAI-Modelle mit systemischem Risiko. 

Handlungsempfehlungen so stellen Unternehmen Compliance sicher:  

  • Inventarisierung der genutzten und modifizierten Modelle, um jederzeit auskunftsfähig zu sein.  
  • Dokumentation eventueller Modifikationen inklusive Re-Assessment beim Überschreiten definierter Schwellenwerte – dies sollte auf organisatorischer wie auch auf technischer Ebene erfolgen, um die hohen Kosten einer nachträglichen Dokumentation zu vermeiden.  
  • Klarheit über die Rolle nach AI Act je KI-System und/oder Modell – nur so können die entsprechenden Pflichten proaktiv eingehalten werden.  

Fazit und Ausblick: Jetzt handeln, später profitieren und als verlässlicher Partner innerhalb des KI-Ökosystems positionieren  

Die Grauzonen im AI Act rund um GPAI-Modelle stellen Unternehmen vor erhebliche Herausforderungen. Die Schwellenwerte für Rechenleistung, die 1/3-Regel bei Modifikationen und die Risiken bei der Integration in nachgelagerte Systeme erfordern präzises Compliance-Management und frühzeitige Planung. Wer die GPAI-Regularien proaktiv angeht, vermeidet nicht nur Risiken – sondern positioniert sich als verantwortungsvoller Innovator sowie belastbarer Kooperationspartner innerhalb eines ebenso zunehmend komplexen KI-Ökosystems. 


Unsere Experten

Jana Schöneborn

Jana Schöneborn

Senior Manager | Legal Engineering & AI Governance Germany, Capgemini Invent
Mit interdisziplinärer Expertise und jahrelanger Beratungserfahrung im datengetriebenen Umfeld sowie AI-Projekten berät Jana Schöneborn Kunden branchenübergreifend in Bezug auf die strategische und nachhaltige Implementierung von AI Governance. Zu ihren Schwerpunktthemen gehören außerdem Responsible AI und AI Use Case Implementierung. 
Lars Bennek

Lars Bennek

Senior Manager | Legal Engineering Lead Germany, Capgemini Invent
Als Ingenieur, Jurist und Wirtschaftsinformatiker bringt Lars Bennek an den Schnittstellen von Recht, Organisation und Technologie interdisziplinäre Expertise in Projekte zur datengetriebenen Bewältigung komplexer strategischer Herausforderungen. Zu seinen Schwerpunktthemen gehören AI & Data Governance, Datenschutz, Datenstrategie und Explainable AI. 

    Weitere Blogposts

    Blog-Updates per Mail?

    Abonnieren Sie unseren Newsletter und erhalten Sie alle zwei Monate eine Auswahl der besten Blogartikel.