Die Risikoklassifizierung ist das Herzstück des EU AI Acts – und für Unternehmen die entscheidende Weichenstellung. Eine Fehleinschätzung kann zu Bußgeldern in Millionenhöhe führen, während ein zu vorsichtiger Ansatz Innovationen lähmt. Doch die meisten verfügbaren Informationen von Anwaltskanzleien oder Beratungsfirmen bleiben an der Oberfläche. Sie erklären, was die Risikoklassen sind, aber nicht, wie Sie Ihr KI-System in der Praxis zuverlässig einordnen.
Dieser Leitfaden schließt diese Lücke. Wir übersetzen komplexe juristische Anforderungen in einen klaren, nachvollziehbaren Prozess. Anstatt Sie mit Paragrafen zu überhäufen, geben wir Ihnen ein praxiserprobtes Framework an die Hand, mit dem Sie Ihr KI-System selbstbewusst klassifizieren und kostspielige Fehler vermeiden können.
Die Risikopyramide des AI Acts: Ein visueller Überblick
Der AI Act verfolgt einen risikobasierten Ansatz. Das bedeutet: Je höher das potenzielle Risiko eines KI-Systems für Gesundheit, Sicherheit oder Grundrechte ist, desto strenger sind die regulatorischen Anforderungen. Die vier Risikostufen bilden eine Pyramide, an deren Spitze die strengsten Regeln stehen.
Diese Struktur macht deutlich, dass die Mehrheit der KI-Anwendungen unter die unteren beiden, weniger regulierten Stufen fallen wird. Der Fokus der EU liegt klar auf den Systemen mit hohem Schadenspotenzial.
Die goldene Regel der Klassifizierung: Der Anwendungsfall entscheidet, nicht die Technologie
Bevor wir in den Prozess eintauchen, müssen wir das wichtigste Prinzip verstehen, das viele Unternehmen übersehen: Der AI Act reguliert nicht die KI-Technologie an sich, sondern deren konkreten Anwendungsfall (Use Case).
Ein Bilderkennungsalgorithmus ist per se weder gut noch schlecht. Sein Risiko hängt allein vom Einsatzzweck ab:
- Minimales Risiko: Derselbe Algorithmus wird in einer Fabrik zur Qualitätskontrolle von Bauteilen eingesetzt. Er sortiert fehlerhafte Teile aus.
- Hohes Risiko: Der Algorithmus wird in einer Bewerbungssoftware genutzt, um Lebensläufe zu scannen und Kandidaten automatisch vorzusortieren (Recruiting).
- Inakzeptables Risiko: Der Algorithmus wird von einer staatlichen Behörde für Social Scoring verwendet, um das Verhalten von Bürgern zu bewerten und zu sanktionieren.
Es ist immer die Anwendung, die das Risiko definiert. Diese Erkenntnis ist der Schlüssel zu einer korrekten Klassifizierung und der erste Schritt, um unnötigen Compliance-Aufwand zu vermeiden.
So klassifizieren Sie Ihr KI-System: Ein Framework in 4 Schritten
Andere Quellen definieren die Risikostufen – wir geben Ihnen den Entscheidungsprozess an die Hand. Folgen Sie diesem Ablauf, um Ihr System präzise zuzuordnen.
Schritt 1: Prüfen, ob die KI-Anwendung explizit verboten ist (Inakzeptables Risiko)
Die erste Frage ist immer: Fällt Ihr Anwendungsfall in die Liste der verbotenen Praktiken gemäß Artikel 5 des AI Acts? Diese Systeme werden als Bedrohung für die Werte der EU angesehen und sind grundsätzlich untersagt.
Fragen Sie sich:
- Setzt unser System manipulative Techniken ein, die das Verhalten von Personen zu deren Nachteil beeinflussen?
- Nutzt unser System Schwachstellen bestimmter Personengruppen (z.B. aufgrund von Alter oder Behinderung) aus?
- Wird unser System von Behörden für Social Scoring eingesetzt?
- Verwendet unser System biometrische Fernidentifizierung in Echtzeit im öffentlichen Raum (mit wenigen Ausnahmen für die Strafverfolgung)?
Wenn Sie eine dieser Fragen mit „Ja“ beantworten, fällt Ihr System in die Kategorie des inakzeptablen Risikos und darf nicht betrieben werden.
Schritt 2: Prüfen, ob das System als Hochrisiko-KI gilt
Wenn Ihr System nicht verboten ist, prüfen Sie als Nächstes, ob es als hochriskant eingestuft wird. Hier gibt es zwei Hauptwege, die in Artikel 6 definiert sind:
- Das KI-System ist eine Sicherheitskomponente eines Produkts, das bereits einer EU-Harmonisierungsvorschrift unterliegt (gelistet in Anhang II).
Beispiele: KI in medizinischen Geräten, Spielzeug, Aufzügen oder in der Luft- und Raumfahrt.
- Das KI-System fällt in einen der spezifischen Hochrisiko-Bereiche, die in Anhang III des AI Acts aufgelistet sind.
Beispiele:
Kritische Infrastrukturen: KI zur Steuerung von Wasser-, Gas- oder Stromnetzen. Hier ergeben sich oft Überschneidungen mit den Anforderungen der NIS2-Richtlinie.
Bildung und Berufsbildung: Systeme, die den Zugang zu Bildungseinrichtungen bewerten oder Prüfungen benoten.
Beschäftigung und Personalmanagement: KI-Tools für das Recruiting, die Beförderungsentscheidungen oder die Leistungsbewertung.
Zugang zu wesentlichen Dienstleistungen: Systeme zur Bonitätsprüfung (Credit Scoring) oder zur Entscheidung über den Anspruch auf Sozialleistungen.
Rechtsdurchsetzung, Justiz und demokratische Prozesse.
Wenn Ihr System in eine dieser Kategorien fällt, gilt es als Hochrisiko-KI und unterliegt den strengsten Anforderungen des AI Acts. Eine robuste Dokumentation und ein solides Risikomanagement, wie es im Rahmen einer ISO 27001 Zertifizierung etabliert wird, ist hier unerlässlich.
Schritt 3: Prüfen, ob Transparenzpflichten bestehen (Begrenztes Risiko)
Systeme mit begrenztem Risiko sind nicht hochriskant, bergen aber die Gefahr der Täuschung oder Manipulation. Fällt Ihr System nicht unter Schritt 1 oder 2, prüfen Sie, ob es eine der folgenden Funktionen erfüllt:
- Interaktion mit Menschen: Chatbots oder Avatare, bei denen Nutzer wissen müssen, dass sie mit einer Maschine kommunizieren.
- Erzeugung von Inhalten: Deepfakes oder andere KI-generierte Audio-, Bild- oder Videoinhalte müssen als künstlich erzeugt gekennzeichnet werden.
- Emotionserkennung oder biometrische Kategorisierung: Systeme, die Emotionen analysieren oder Personen nach sensiblen Merkmalen einteilen, müssen die betroffenen Personen darüber informieren.
Wenn ja, unterliegt Ihr System spezifischen Transparenzpflichten, ist aber ansonsten nur leicht reguliert.
Schritt 4: Zuordnung zu minimalem oder keinem Risiko
Wenn Ihr KI-System keine der Kriterien aus den Schritten 1 bis 3 erfüllt, fällt es in die Kategorie des minimalen Risikos. Dies betrifft die große Mehrheit aller KI-Anwendungen wie KI-gestützte Spamfilter, Bestandsverwaltungssysteme oder die meisten KI-Funktionen in Videospielen.
Für diese Systeme gibt es keine verpflichtenden Vorgaben aus dem AI Act. Die EU ermutigt jedoch zur freiwilligen Einhaltung von Verhaltenskodizes.
Deep Dive: Beispiele und Pflichten für jede Risikostufe
Inakzeptables Risiko (Verboten)
- Beispiele: Social-Scoring-Systeme durch Regierungen, KI-Spielzeug, das Kinder zu gefährlichem Verhalten anleitet, unterschwellige Manipulation.
- Pflichten: Keine. Diese Systeme dürfen in der EU nicht entwickelt, bereitgestellt oder genutzt werden.
Hohes Risiko (Stark reguliert)
- Beispiele: KI zur Diagnose von Krankheiten, KI in autonomen Fahrzeugen, Bewerber-Screening-Tools, Algorithmen zur Kreditwürdigkeitsprüfung.
Pflichten (Auswahl):
- Einrichtung eines Risikomanagementsystems
- Hohe Qualität der Trainings-, Validierungs- und Testdatensätze
- Umfangreiche technische Dokumentation
- Fähigkeit zur menschlichen Aufsicht
- Hohes Maß an Robustheit, Genauigkeit und Cybersicherheit
- Konformitätsbewertung (oft durch Dritte) und CE-Kennzeichnung
Begrenztes Risiko (Transparenzpflichten)
- Beispiele: Kundenservice-Chatbots, Deepfakes zur Erstellung von Marketingmaterial, Systeme, die Kommentare nach Tonalität filtern.
- Pflichten:
Offenlegungspflicht: Nutzer müssen klar darüber informiert werden, dass sie mit einer KI interagieren oder dass Inhalte künstlich erzeugt wurden.
Minimales Risiko (Keine Pflichten)
- Beispiele: Spamfilter, KI-gesteuerte Empfehlungsalgorithmen in Onlineshops, prädiktive Wartung in der Industrie.
- Pflichten: Keine gesetzlichen Verpflichtungen nach dem AI Act. Freiwillige Verhaltenskodizes werden empfohlen.
Sonderfall: Generative KI und Open-Source-Modelle
Die Klassifizierung von Basismodellen wie GPT-4 oder Open-Source-Modellen ist komplex. Der AI Act unterscheidet hier:
- Allzweck-KI-Modelle (GPAI): Modelle wie GPT-4 unterliegen eigenen Transparenzpflichten (z.B. detaillierte Zusammenfassungen der Trainingsdaten).
- Systemisches Risiko: Sehr leistungsfähige GPAI-Modelle, die ein „systemisches Risiko“ darstellen könnten, unterliegen verschärften Pflichten, wie z.B. Modell-Evaluierungen und Berichterstattung über schwerwiegende Vorfälle.
Wichtig ist auch hier der Grundsatz: Die Regulierung zielt primär auf den Downstream-Anbieter, der das Modell für einen konkreten Hochrisiko-Anwendungsfall einsetzt. Die Nutzung eines Open-Source-Modells entbindet Sie nicht von der Pflicht, Ihre spezifische Anwendung zu klassifizieren und die entsprechenden Anforderungen zu erfüllen.
Die Konsequenzen der Fehlklassifizierung
Die korrekte Einstufung ist keine akademische Übung, sondern eine geschäftskritische Notwendigkeit. Die Strafen für Verstöße sind empfindlich und sollen eine abschreckende Wirkung haben.
- Verbotene KI-Anwendungen: Bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes.
- Verstöße bei Hochrisiko-Systemen: Bis zu 15 Mio. € oder 3 % des weltweiten Jahresumsatzes.
- Bereitstellung falscher Informationen: Bis zu 7,5 Mio. € oder 1,5 % des weltweiten Jahresumsatzes.
Diese Zahlen verdeutlichen, dass eine sorgfältige und dokumentierte Klassifizierung ein zentraler Baustein Ihrer Risikomanagement-Strategie sein muss.
Ihr Weg zur AI Act Compliance
Die Risikoklassifizierung ist der erste und wichtigste Schritt auf dem Weg zur Konformität mit dem EU AI Act. Der Schlüssel liegt darin, den Fokus vom Was auf das Wie zu verlagern – vom reinen Wissen über die Risikostufen hin zu einem strukturierten Prozess zur Einordnung Ihrer spezifischen Anwendung.
Dieser Prozess erfordert Sorgfalt, aber er muss nicht überfordernd sein. Mit einem klaren Framework und einem Verständnis für das Kernprinzip der Anwendungsfall-Abhängigkeit schaffen Sie die Grundlage für eine sichere und rechtskonforme KI-Innovation.
Die Anforderungen des AI Acts, insbesondere für Hochrisiko-Systeme, sind komplex. Plattformen wie das Digital Compliance Office von SECJUR helfen Ihnen, diese Anforderungen systematisch zu managen, von der Dokumentation über das Risikomanagement bis hin zur kontinuierlichen Überwachung. So verwandeln Sie regulatorische Hürden in einen nachweisbaren Wettbewerbsvorteil.
Häufig gestellte Fragen (FAQ)
F: Was passiert, wenn sich der Anwendungsfall unseres KI-Systems ändert?
A: Die Klassifizierung ist ein dynamischer Prozess. Wenn Sie den beabsichtigten Zweck eines KI-Systems wesentlich ändern, müssen Sie den Klassifizierungsprozess erneut durchlaufen. Ein System, das ursprünglich als minimales Risiko eingestuft wurde, könnte durch einen neuen Use Case zu einem Hochrisiko-System werden.
F: Reicht es, wenn der Anbieter des Basismodells Compliance zusichert?
A: Nein. Als Anbieter, der ein KI-System auf den Markt bringt oder in Betrieb nimmt, sind Sie für die korrekte Klassifizierung und die Einhaltung der entsprechenden Pflichten für Ihren spezifischen Anwendungsfall verantwortlich. Die Compliance des Basismodells ist eine notwendige, aber keine hinreichende Bedingung.
F: Muss jedes Hochrisiko-System von einer externen Stelle zertifiziert werden?
A: Nicht zwangsläufig. Der AI Act sieht eine Konformitätsbewertung vor. Bei den meisten Hochrisiko-Systemen gemäß Anhang III ist eine interne Kontrolle durch den Anbieter ausreichend, solange harmonisierte Normen eingehalten werden. Nur bei bestimmten, besonders kritischen Systemen (z.B. biometrische Identifizierung) ist eine Bewertung durch eine benannte Stelle (Drittpartei) zwingend erforderlich.