Beitrag teilen
HOME
/
blog
/
EU AI Act & GPAI: Wie gelingt die Risikoklassifizierung?

EU AI Act & GPAI: Wie gelingt die Risikoklassifizierung?

Niklas Hanitsch

Volljurist und Compliance-Experte

December 1, 2025

4 Minuten

Als Jurist mit langjähriger Erfahrung als Anwalt für Datenschutz und IT-Recht kennt Niklas die Antwort auf so gut wie jede Frage im Bereich der digitalen Compliance. Er war in der Vergangenheit unter anderem für Taylor Wessing und Amazon tätig. Als Gründer und Geschäftsführer von SECJUR, lässt Niklas sein Wissen vor allem in die Produktentwicklung unserer Compliance-Automatisierungsplattform einfließen.

Key Takeaways

GPAI wird erst durch den konkreten Einsatz zum rechtlichen Risiko.

Die Verantwortung im EU AI Act folgt klar der Wertschöpfungskette.

Systemische Risiken entstehen ab extrem hohen Rechenleistungen beim Training.

Auch Anwender tragen aktiven Compliance-Pflichten bei Hochrisiko-Einsätzen.

Stellen Sie sich vor, Sie integrieren eine leistungsstarke KI-API – vielleicht von OpenAI, Google oder einem europäischen Anbieter – in Ihr Produkt, um Ihren Kundenservice zu automatisieren oder Datenanalysen zu beschleunigen. Sie nutzen eine „General Purpose AI“ (GPAI), eine KI für allgemeine Zwecke. Doch mit der Einführung des EU AI Acts stehen Sie plötzlich vor einer entscheidenden Frage: Welche Verantwortung tragen Sie? Und was genau bedeutet „systemisches Risiko“ für Ihr Unternehmen?

Viele Unternehmen sind unsicher, wie sie die neuen Regeln für GPAI und Basismodelle einordnen sollen. Die gute Nachricht: Der AI Act ist kein Hindernis, sondern ein Rahmenwerk für vertrauenswürdige Innovation. Dieser Leitfaden übersetzt die komplexen Vorschriften in eine klare, verständliche Sprache und zeigt Ihnen Schritt für Schritt, wie Sie die Risikoklassifizierung für GPAI meistern.

Grundbegriffe und Systemische Risiken: Was Sie wissen müssen

Bevor wir in die Details der Klassifizierung eintauchen, müssen wir zwei zentrale Begriffe klären, die im Mittelpunkt der Regulierung stehen: Basismodelle und GPAI-Systeme.

  • Basismodelle (Foundation Models): Stellen Sie sich ein Basismodell wie einen rohen, extrem leistungsfähigen Motor vor. Es wurde auf riesigen Datenmengen trainiert und kann eine Vielzahl von Aufgaben ausführen (z. B. Texte erstellen, Bilder erkennen), ist aber noch nicht für einen spezifischen Zweck optimiert. Beispiele sind GPT-4 von OpenAI oder Googles Gemini.
  • GPAI-Systeme (General Purpose AI): Ein GPAI-System ist die Weiterentwicklung. Es nimmt ein Basismodell (den Motor) und integriert es in ein nutzbares Produkt oder eine Dienstleistung (das Auto). ChatGPT ist beispielsweise ein GPAI-System, das auf dem GPT-Basismodell aufbaut.

Die entscheidende Neuerung im AI Act ist die Anerkennung, dass einige dieser Modelle so leistungsfähig sind, dass sie „systemische Risiken“ bergen. Doch was bedeutet das konkret? Die EU hat hierfür eine technische Schwelle definiert: Ein Basismodell wird als systemisch riskant eingestuft, wenn für sein Training eine Rechenleistung von mehr als 10^25 FLOPs (Floating Point Operations) aufgewendet wurde.

Um diese Zahl greifbar zu machen: Das ist in etwa so, als würde jeder Mensch auf der Erde einen Tag lang einen Supercomputer laufen lassen. Diese enorme Leistung signalisiert dem Gesetzgeber, dass das Modell potenziell weitreichende gesellschaftliche Auswirkungen haben könnte.

Diese Infografik erklärt die grundlegenden Konzepte von GPAI und Basismodellen sowie die bedeutende Rolle des systemischen Risikos durch die 10^25 FLOPS-Schwelle. So wird ein abstraktes technisches Konzept leicht verständlich.

Die Kette der Verantwortung: Wer haftet wann?

Eine der größten Herausforderungen bei der Regulierung von GPAI ist die Frage der Haftung. Wer ist verantwortlich, wenn etwas schiefläuft? Der Entwickler des Basismodells, das Unternehmen, das es in ein Produkt integriert, oder der Endanwender?

Der AI Act schafft hier Klarheit, indem er eine „Kette der Verantwortung“ etabliert. Die Pflichten werden entlang der Wertschöpfungskette weitergegeben, wobei jeder Akteur eine spezifische Rolle spielt:

  1. Anbieter von Basismodellen: Der ursprüngliche Entwickler (z. B. OpenAI) muss eine umfassende technische Dokumentation erstellen, die Leistung des Modells bewerten und eine detaillierte Zusammenfassung der Trainingsdaten bereitstellen.
  2. Anbieter von GPAI-Systemen: Das Unternehmen, das ein Basismodell in ein konkretes Werkzeug integriert, übernimmt diese Dokumentation und ergänzt sie. Es muss klare Gebrauchsanweisungen für nachgelagerte Anwender erstellen, die erklären, wie das System sicher und konform eingesetzt werden kann.
  3. Nachgelagerte Anwender (Deployer): Das sind Sie – das Unternehmen, das ein GPAI-Tool (z. B. eine KI-gestützte HR-Software) in seine eigenen Prozesse integriert. Ihre Hauptaufgabe ist es, die Anweisungen des GPAI-Anbieters zu befolgen und sicherzustellen, dass die Nutzung in Ihrem spezifischen Anwendungsfall den Regeln des AI Acts entspricht. Wenn Sie das GPAI-System beispielsweise zur Bewerberauswahl nutzen, fällt es in Ihrem Kontext in eine Hochrisikokategorie, und Sie müssen die entsprechenden Pflichten erfüllen.

Dieses gestufte Modell stellt sicher, dass die Verantwortung dort liegt, wo die Kontrolle über das Risiko ausgeübt wird.

Dieser Flussdiagramm visualisiert klar, wie die Pflichten und Risiken entlang der Kette von Basismodell-Anbietern bis hin zu nachgelagerten Anwendern verteilt werden – eine zentrale Herausforderung bei der Risikoklassifizierung von GPAI.

Praxisleitfaden zur Risikoklassifizierung

Ein GPAI-System an sich wird nicht automatisch als hochriskant eingestuft. Das Risiko entsteht erst durch den spezifischen Anwendungsfall. Ein Textgenerator kann für die Erstellung von Marketing-E-Mails (geringes Risiko) oder für die automatische Erstellung von Rechtsdokumenten (potenziell hohes Risiko) verwendet werden.

Die generelle Risikoklassifizierung von KI-Systemen unter dem AI Act kennt vier Stufen: minimales, begrenztes, hohes und inakzeptables Risiko. Ihre Hauptaufgabe als Anwender eines GPAI-Systems ist es, zu bewerten, in welche dieser Kategorien Ihr konkreter Einsatz fällt.

Für Anbieter von GPAI-Modellen mit systemischem Risiko gelten zusätzliche, strengere Regeln. Sie müssen:

  • Umfassende Modellbewertungen durchführen.
  • Systemische Risiken auf EU-Ebene bewerten und mindern.
  • Schwerwiegende Vorfälle an die Europäische Kommission melden.
  • Ein hohes Maß an Cybersicherheit gewährleisten.

Eine bewährte Methode, um diese Pflichten zu erfüllen, ist die Einhaltung eines „Verhaltenskodex“ (Code of Practice), der von der EU-Kommission gefördert wird und als Leitfaden für Best Practices dient.

Diese visuelle Matrix verknüpft die EU AI Act Risikoklassen mit praktischen Beispielen und den wichtigsten Pflichten, um die Einordnung und das Compliance-Verständnis für GPAI-Anwender in der Praxis zu verankern.

Sonderfall Open Source: Ein Freifahrtschein?

Eine häufige Frage betrifft Open-Source-Modelle. Bedeutet die freie Verfügbarkeit, dass man von allen Pflichten befreit ist? Die Antwort ist ein klares Jein. Der AI Act sieht Ausnahmen vor, um Innovation und Forschung nicht zu behindern. Ein rein zu Entwicklungs- oder Forschungszwecken veröffentlichtes Open-Source-Modell unterliegt nicht den strengen Pflichten des AI Acts.

Die Situation ändert sich jedoch, sobald das Modell kommerzialisiert wird. Wenn Sie ein Open-Source-Basismodell nehmen, es anpassen und als Teil einer kommerziellen Dienstleistung anbieten, gelten Sie als Anbieter und müssen die entsprechenden Verpflichtungen der Verordnung erfüllen. Die Ausnahme endet dort, wo das kommerzielle Interesse beginnt.

Häufig gestellte Fragen (FAQ) zur GPAI-Regulierung

Was ist der Unterschied zwischen einem Basismodell und einem GPAI-System?

Ein Basismodell ist die technologische Grundlage (der Motor), trainiert auf allgemeinen Daten. Ein GPAI-System ist die fertige Anwendung (das Auto), die dieses Modell für Nutzer zugänglich macht.

Ab wann gilt mein GPAI-Modell als systemisch riskant?

Die primäre Schwelle ist die Rechenleistung, die für das Training des zugrundeliegenden Basismodells verwendet wurde: mehr als 10^25 FLOPs. Die EU-Kommission kann Modelle auch aufgrund anderer Kriterien (z. B. Nutzerzahl) als systemisch einstufen.

Bin ich als Nutzer eines GPAI-Tools auch in der Pflicht?

Ja. Als „Deployer“ oder nachgelagerter Anwender sind Sie dafür verantwortlich, das Tool gemäß den Anweisungen des Anbieters und den Regeln des AI Acts für Ihren spezifischen Anwendungsfall zu nutzen. Fällt dieser unter die Hochrisikokategorie, müssen Sie die damit verbundenen Pflichten erfüllen.

Wie kann ich Compliance nachweisen?

Der Schlüssel ist Dokumentation. Sie müssen Ihre Risikobewertung, die Einhaltung der Anbieter-Anweisungen und Ihre internen Prozesse dokumentieren. Für Hochrisikosysteme ist eine Konformitätsbewertung erforderlich, die in manchen Fällen durch externe benannte Stellen im AI Act geprüft werden muss.

Ihr Weg zur AI Act Compliance

Die Regulierung von GPAI und Basismodellen mag komplex erscheinen, doch sie folgt einer klaren Logik: Verantwortung und Transparenz entlang der gesamten Wertschöpfungskette zu schaffen. Für Ihr Unternehmen bedeutet das vor allem, sich Ihrer Rolle bewusst zu werden: Sind Sie reiner Anwender, oder modifizieren und bieten Sie KI-Systeme selbst an?

Beginnen Sie damit, eine Bestandsaufnahme aller bei Ihnen eingesetzten KI-Systeme zu machen. Bewerten Sie deren Anwendungsfälle und identifizieren Sie potenzielle Hochrisiko-Anwendungen. Dieser erste Schritt schafft die Grundlage für eine nachhaltige und rechtssichere KI-Strategie.

Für Unternehmen, die diesen Prozess nicht manuell steuern wollen, bieten spezialisierte Plattformen wie das Digital Compliance Office eine automatisierte Lösung. Eine solche EU AI Act Compliance Software kann Ihnen helfen, die Anforderungen effizient umzusetzen und sich auf das Wesentliche zu konzentrieren: die innovative Nutzung von KI.

Niklas Hanitsch

Als Jurist mit langjähriger Erfahrung als Anwalt für Datenschutz und IT-Recht kennt Niklas die Antwort auf so gut wie jede Frage im Bereich der digitalen Compliance. Er war in der Vergangenheit unter anderem für Taylor Wessing und Amazon tätig. Als Gründer und Geschäftsführer von SECJUR, lässt Niklas sein Wissen vor allem in die Produktentwicklung unserer Compliance-Automatisierungsplattform einfließen.

Über SECJUR

SECJUR steht für eine Welt, in der Unternehmen immer compliant sind, aber nie an Compliance denken müssen. Mit dem Digital Compliance Office automatisieren Unternehmen aufwändige Arbeitsschritte und erlangen Compliance-Standards wie DSGVO, ISO 27001 oder TISAX® bis zu 50% schneller.

Compliance, completed

Automatisieren Sie Ihre Compliance Prozesse mit dem Digital Compliance Office

Mehr erfahren

Frequently asked questions

Everything you need to know about the product and billing.

Weiterlesen

June 2, 2023
5 min
Datenschutzgrundverordnung: ihre Vorgeschichte, ihr Impact

Seit 2011 wurde mit dem Gedanken gespielt, das Datenschutzrecht auf europäischer Ebene neu zu evaluieren und gegebenenfalls auf neue Beine zu stellen. Unsere Experten zeigen, wie die Datenschutzgrundverordnung unser Verständnis vom Datenschutz verändert hat.

Lesen
November 26, 2025
5 Minuten
NIS2-Reporting: Wie CISOs die Geschäftsleitung richtig informieren

Viele CISO-Reports scheitern daran, technische Kennzahlen nicht in geschäftsrelevante Entscheidungen zu übersetzen. Dieser Leitfaden zeigt, wie NIS2-konformes Reporting an die Geschäftsleitung gelingt, Haftungsrisiken reduziert werden und aus Pflichtberichten ein strategischer Dialog entsteht. Erfahren Sie praxisnah, wie CISOs und Vorstände gemeinsam Cybersicherheit wirksam steuern.

Lesen
TO TOP