Beitrag teilen
HOME
/
blog
/
EU AI Act: KI-Systeme richtig klassifizieren

EU AI Act: KI-Systeme richtig klassifizieren

Niklas Hanitsch

Volljurist und Compliance-Experte

November 6, 2025

4 Minuten

Als Jurist mit langjähriger Erfahrung als Anwalt für Datenschutz und IT-Recht kennt Niklas die Antwort auf so gut wie jede Frage im Bereich der digitalen Compliance. Er war in der Vergangenheit unter anderem für Taylor Wessing und Amazon tätig. Als Gründer und Geschäftsführer von SECJUR, lässt Niklas sein Wissen vor allem in die Produktentwicklung unserer Compliance-Automatisierungsplattform einfließen.

Key Takeaways

Der Einsatzbereich entscheidet über die Risikoklasse eines KI-Systems und damit über die Anforderungen des EU AI Acts.

Je höher das Risiko, desto strenger die Vorgaben zur Transparenz, Kontrolle und Sicherheit.

Ein 4-Schritte-Framework hilft, KI-Systeme klar und rechtssicher zu klassifizieren.

Eine saubere Klassifizierung vermeidet Bußgelder, schafft Vertrauen und fördert nachhaltige KI-Innovation.

Die Risikoklassifizierung ist das Herzstück des EU AI Acts – und für Unternehmen die entscheidende Weichenstellung. Eine Fehleinschätzung kann zu Bußgeldern in Millionenhöhe führen, während ein zu vorsichtiger Ansatz Innovationen lähmt. Doch die meisten verfügbaren Informationen von Anwaltskanzleien oder Beratungsfirmen bleiben an der Oberfläche. Sie erklären, was die Risikoklassen sind, aber nicht, wie Sie Ihr KI-System in der Praxis zuverlässig einordnen.

Dieser Leitfaden schließt diese Lücke. Wir übersetzen komplexe juristische Anforderungen in einen klaren, nachvollziehbaren Prozess. Anstatt Sie mit Paragrafen zu überhäufen, geben wir Ihnen ein praxiserprobtes Framework an die Hand, mit dem Sie Ihr KI-System selbstbewusst klassifizieren und kostspielige Fehler vermeiden können.

Die Risikopyramide des AI Acts: Ein visueller Überblick

Der AI Act verfolgt einen risikobasierten Ansatz. Das bedeutet: Je höher das potenzielle Risiko eines KI-Systems für Gesundheit, Sicherheit oder Grundrechte ist, desto strenger sind die regulatorischen Anforderungen. Die vier Risikostufen bilden eine Pyramide, an deren Spitze die strengsten Regeln stehen.

Diese Struktur macht deutlich, dass die Mehrheit der KI-Anwendungen unter die unteren beiden, weniger regulierten Stufen fallen wird. Der Fokus der EU liegt klar auf den Systemen mit hohem Schadenspotenzial.

Die goldene Regel der Klassifizierung: Der Anwendungsfall entscheidet, nicht die Technologie

Bevor wir in den Prozess eintauchen, müssen wir das wichtigste Prinzip verstehen, das viele Unternehmen übersehen: Der AI Act reguliert nicht die KI-Technologie an sich, sondern deren konkreten Anwendungsfall (Use Case).

Ein Bilderkennungsalgorithmus ist per se weder gut noch schlecht. Sein Risiko hängt allein vom Einsatzzweck ab:

  • Minimales Risiko: Derselbe Algorithmus wird in einer Fabrik zur Qualitätskontrolle von Bauteilen eingesetzt. Er sortiert fehlerhafte Teile aus.
  • Hohes Risiko: Der Algorithmus wird in einer Bewerbungssoftware genutzt, um Lebensläufe zu scannen und Kandidaten automatisch vorzusortieren (Recruiting).
  • Inakzeptables Risiko: Der Algorithmus wird von einer staatlichen Behörde für Social Scoring verwendet, um das Verhalten von Bürgern zu bewerten und zu sanktionieren.

Es ist immer die Anwendung, die das Risiko definiert. Diese Erkenntnis ist der Schlüssel zu einer korrekten Klassifizierung und der erste Schritt, um unnötigen Compliance-Aufwand zu vermeiden.

So klassifizieren Sie Ihr KI-System: Ein Framework in 4 Schritten

Andere Quellen definieren die Risikostufen – wir geben Ihnen den Entscheidungsprozess an die Hand. Folgen Sie diesem Ablauf, um Ihr System präzise zuzuordnen.

Schritt 1: Prüfen, ob die KI-Anwendung explizit verboten ist (Inakzeptables Risiko)

Die erste Frage ist immer: Fällt Ihr Anwendungsfall in die Liste der verbotenen Praktiken gemäß Artikel 5 des AI Acts? Diese Systeme werden als Bedrohung für die Werte der EU angesehen und sind grundsätzlich untersagt.

Fragen Sie sich:

  • Setzt unser System manipulative Techniken ein, die das Verhalten von Personen zu deren Nachteil beeinflussen?
  • Nutzt unser System Schwachstellen bestimmter Personengruppen (z.B. aufgrund von Alter oder Behinderung) aus?
  • Wird unser System von Behörden für Social Scoring eingesetzt?
  • Verwendet unser System biometrische Fernidentifizierung in Echtzeit im öffentlichen Raum (mit wenigen Ausnahmen für die Strafverfolgung)?

Wenn Sie eine dieser Fragen mit „Ja“ beantworten, fällt Ihr System in die Kategorie des inakzeptablen Risikos und darf nicht betrieben werden.

Schritt 2: Prüfen, ob das System als Hochrisiko-KI gilt

Wenn Ihr System nicht verboten ist, prüfen Sie als Nächstes, ob es als hochriskant eingestuft wird. Hier gibt es zwei Hauptwege, die in Artikel 6 definiert sind:

  1. Das KI-System ist eine Sicherheitskomponente eines Produkts, das bereits einer EU-Harmonisierungsvorschrift unterliegt (gelistet in Anhang II).

    Beispiele: KI in medizinischen Geräten, Spielzeug, Aufzügen oder in der Luft- und Raumfahrt.
  2. Das KI-System fällt in einen der spezifischen Hochrisiko-Bereiche, die in Anhang III des AI Acts aufgelistet sind.

    Beispiele:

    Kritische Infrastrukturen:
    KI zur Steuerung von Wasser-, Gas- oder Stromnetzen. Hier ergeben sich oft Überschneidungen mit den Anforderungen der NIS2-Richtlinie.

    Bildung und Berufsbildung:
    Systeme, die den Zugang zu Bildungseinrichtungen bewerten oder Prüfungen benoten.

    Beschäftigung und Personalmanagement:
    KI-Tools für das Recruiting, die Beförderungsentscheidungen oder die Leistungsbewertung.

    Zugang zu wesentlichen Dienstleistungen:
    Systeme zur Bonitätsprüfung (Credit Scoring) oder zur Entscheidung über den Anspruch auf Sozialleistungen.

    Rechtsdurchsetzung, Justiz und demokratische Prozesse.

Wenn Ihr System in eine dieser Kategorien fällt, gilt es als Hochrisiko-KI und unterliegt den strengsten Anforderungen des AI Acts. Eine robuste Dokumentation und ein solides Risikomanagement, wie es im Rahmen einer ISO 27001 Zertifizierung etabliert wird, ist hier unerlässlich.

Schritt 3: Prüfen, ob Transparenzpflichten bestehen (Begrenztes Risiko)

Systeme mit begrenztem Risiko sind nicht hochriskant, bergen aber die Gefahr der Täuschung oder Manipulation. Fällt Ihr System nicht unter Schritt 1 oder 2, prüfen Sie, ob es eine der folgenden Funktionen erfüllt:

  • Interaktion mit Menschen: Chatbots oder Avatare, bei denen Nutzer wissen müssen, dass sie mit einer Maschine kommunizieren.
  • Erzeugung von Inhalten: Deepfakes oder andere KI-generierte Audio-, Bild- oder Videoinhalte müssen als künstlich erzeugt gekennzeichnet werden.
  • Emotionserkennung oder biometrische Kategorisierung: Systeme, die Emotionen analysieren oder Personen nach sensiblen Merkmalen einteilen, müssen die betroffenen Personen darüber informieren.

Wenn ja, unterliegt Ihr System spezifischen Transparenzpflichten, ist aber ansonsten nur leicht reguliert.

Schritt 4: Zuordnung zu minimalem oder keinem Risiko

Wenn Ihr KI-System keine der Kriterien aus den Schritten 1 bis 3 erfüllt, fällt es in die Kategorie des minimalen Risikos. Dies betrifft die große Mehrheit aller KI-Anwendungen wie KI-gestützte Spamfilter, Bestandsverwaltungssysteme oder die meisten KI-Funktionen in Videospielen.

Für diese Systeme gibt es keine verpflichtenden Vorgaben aus dem AI Act. Die EU ermutigt jedoch zur freiwilligen Einhaltung von Verhaltenskodizes.

Deep Dive: Beispiele und Pflichten für jede Risikostufe

Inakzeptables Risiko (Verboten)

  • Beispiele: Social-Scoring-Systeme durch Regierungen, KI-Spielzeug, das Kinder zu gefährlichem Verhalten anleitet, unterschwellige Manipulation.
  • Pflichten: Keine. Diese Systeme dürfen in der EU nicht entwickelt, bereitgestellt oder genutzt werden.

Hohes Risiko (Stark reguliert)

  • Beispiele: KI zur Diagnose von Krankheiten, KI in autonomen Fahrzeugen, Bewerber-Screening-Tools, Algorithmen zur Kreditwürdigkeitsprüfung.

    Pflichten (Auswahl):
  • Einrichtung eines Risikomanagementsystems
  • Hohe Qualität der Trainings-, Validierungs- und Testdatensätze
  • Umfangreiche technische Dokumentation
  • Fähigkeit zur menschlichen Aufsicht
  • Hohes Maß an Robustheit, Genauigkeit und Cybersicherheit
  • Konformitätsbewertung (oft durch Dritte) und CE-Kennzeichnung

Begrenztes Risiko (Transparenzpflichten)

  • Beispiele: Kundenservice-Chatbots, Deepfakes zur Erstellung von Marketingmaterial, Systeme, die Kommentare nach Tonalität filtern.
  • Pflichten:

    Offenlegungspflicht:
    Nutzer müssen klar darüber informiert werden, dass sie mit einer KI interagieren oder dass Inhalte künstlich erzeugt wurden.

Minimales Risiko (Keine Pflichten)

  •  Beispiele: Spamfilter, KI-gesteuerte Empfehlungsalgorithmen in Onlineshops, prädiktive Wartung in der Industrie.
  •  Pflichten: Keine gesetzlichen Verpflichtungen nach dem AI Act. Freiwillige Verhaltenskodizes werden empfohlen.

Sonderfall: Generative KI und Open-Source-Modelle

Die Klassifizierung von Basismodellen wie GPT-4 oder Open-Source-Modellen ist komplex. Der AI Act unterscheidet hier:

  • Allzweck-KI-Modelle (GPAI): Modelle wie GPT-4 unterliegen eigenen Transparenzpflichten (z.B. detaillierte Zusammenfassungen der Trainingsdaten).
  • Systemisches Risiko: Sehr leistungsfähige GPAI-Modelle, die ein „systemisches Risiko“ darstellen könnten, unterliegen verschärften Pflichten, wie z.B. Modell-Evaluierungen und Berichterstattung über schwerwiegende Vorfälle.

Wichtig ist auch hier der Grundsatz: Die Regulierung zielt primär auf den Downstream-Anbieter, der das Modell für einen konkreten Hochrisiko-Anwendungsfall einsetzt. Die Nutzung eines Open-Source-Modells entbindet Sie nicht von der Pflicht, Ihre spezifische Anwendung zu klassifizieren und die entsprechenden Anforderungen zu erfüllen.

Die Konsequenzen der Fehlklassifizierung

Die korrekte Einstufung ist keine akademische Übung, sondern eine geschäftskritische Notwendigkeit. Die Strafen für Verstöße sind empfindlich und sollen eine abschreckende Wirkung haben.

  • Verbotene KI-Anwendungen: Bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes.
  • Verstöße bei Hochrisiko-Systemen: Bis zu 15 Mio. € oder 3 % des weltweiten Jahresumsatzes.
  • Bereitstellung falscher Informationen: Bis zu 7,5 Mio. € oder 1,5 % des weltweiten Jahresumsatzes.

Diese Zahlen verdeutlichen, dass eine sorgfältige und dokumentierte Klassifizierung ein zentraler Baustein Ihrer Risikomanagement-Strategie sein muss.

Ihr Weg zur AI Act Compliance

Die Risikoklassifizierung ist der erste und wichtigste Schritt auf dem Weg zur Konformität mit dem EU AI Act. Der Schlüssel liegt darin, den Fokus vom Was auf das Wie zu verlagern – vom reinen Wissen über die Risikostufen hin zu einem strukturierten Prozess zur Einordnung Ihrer spezifischen Anwendung.

Dieser Prozess erfordert Sorgfalt, aber er muss nicht überfordernd sein. Mit einem klaren Framework und einem Verständnis für das Kernprinzip der Anwendungsfall-Abhängigkeit schaffen Sie die Grundlage für eine sichere und rechtskonforme KI-Innovation.

Die Anforderungen des AI Acts, insbesondere für Hochrisiko-Systeme, sind komplex. Plattformen wie das Digital Compliance Office von SECJUR helfen Ihnen, diese Anforderungen systematisch zu managen, von der Dokumentation über das Risikomanagement bis hin zur kontinuierlichen Überwachung. So verwandeln Sie regulatorische Hürden in einen nachweisbaren Wettbewerbsvorteil.

Häufig gestellte Fragen (FAQ)

F: Was passiert, wenn sich der Anwendungsfall unseres KI-Systems ändert?

A: Die Klassifizierung ist ein dynamischer Prozess. Wenn Sie den beabsichtigten Zweck eines KI-Systems wesentlich ändern, müssen Sie den Klassifizierungsprozess erneut durchlaufen. Ein System, das ursprünglich als minimales Risiko eingestuft wurde, könnte durch einen neuen Use Case zu einem Hochrisiko-System werden.

F: Reicht es, wenn der Anbieter des Basismodells Compliance zusichert?

A: Nein. Als Anbieter, der ein KI-System auf den Markt bringt oder in Betrieb nimmt, sind Sie für die korrekte Klassifizierung und die Einhaltung der entsprechenden Pflichten für Ihren spezifischen Anwendungsfall verantwortlich. Die Compliance des Basismodells ist eine notwendige, aber keine hinreichende Bedingung.

F: Muss jedes Hochrisiko-System von einer externen Stelle zertifiziert werden?

A: Nicht zwangsläufig. Der AI Act sieht eine Konformitätsbewertung vor. Bei den meisten Hochrisiko-Systemen gemäß Anhang III ist eine interne Kontrolle durch den Anbieter ausreichend, solange harmonisierte Normen eingehalten werden. Nur bei bestimmten, besonders kritischen Systemen (z.B. biometrische Identifizierung) ist eine Bewertung durch eine benannte Stelle (Drittpartei) zwingend erforderlich.

Niklas Hanitsch

Als Jurist mit langjähriger Erfahrung als Anwalt für Datenschutz und IT-Recht kennt Niklas die Antwort auf so gut wie jede Frage im Bereich der digitalen Compliance. Er war in der Vergangenheit unter anderem für Taylor Wessing und Amazon tätig. Als Gründer und Geschäftsführer von SECJUR, lässt Niklas sein Wissen vor allem in die Produktentwicklung unserer Compliance-Automatisierungsplattform einfließen.

Über SECJUR

SECJUR steht für eine Welt, in der Unternehmen immer compliant sind, aber nie an Compliance denken müssen. Mit dem Digital Compliance Office automatisieren Unternehmen aufwändige Arbeitsschritte und erlangen Compliance-Standards wie DSGVO, ISO 27001 oder TISAX® bis zu 50% schneller.

Compliance, completed

Automatisieren Sie Ihre Compliance Prozesse mit dem Digital Compliance Office

Mehr erfahren

Frequently asked questions

Everything you need to know about the product and billing.

Weiterlesen

October 30, 2025
5 Minuten
ISO 9001 Audit: Wirksamkeit messen und Erfolg steigern

Viele Unternehmen führen Audits durch, ohne deren tatsächlichen Nutzen zu messen. Erfahren Sie, wie Sie mit klaren Zielen, passenden KPIs und systematischer Auswertung die Wirksamkeit Ihrer ISO 9001 Audits steigern. Dieser Leitfaden zeigt, wie Sie Audits von einer Pflichtübung zu einem strategischen Werkzeug machen, das die Qualität, Effizienz und Unternehmensleistung messbar verbessert.

Lesen
November 7, 2025
5 Minuten
ISO 27001 Annex A (2022): Praktische Umsetzung der Kontrollen

Viele Unternehmen streben eine ISO 27001-Zertifizierung an, scheitern jedoch bei der praktischen Umsetzung der Annex A Kontrollen. Dieser Leitfaden zeigt, wie Sie die 93 Maßnahmen der Version 2022 wirksam, auditfähig und risikobasiert verankern, von Governance und Schulungen über Cloud-Sicherheit bis hin zu Schwachstellen- und Änderungsmanagement. Lernen Sie, wie aus abstrakten Anforderungen gelebte Sicherheitsprozesse werden, die Ihr ISMS stärken und echten Mehrwert für Resilienz und Wettbewerbssicherheit schaffen.

Lesen
June 2, 2023
3 min
Datenschutzerklärung: Unsere einfache Checkliste für die Gestaltung

Viele Webseiten verfügen über eine Datenschutzerklärung. Aber benötigt wirkliche jede Internetseite eine Datenschutzerklärung? Muss auch die Homepage einer Privatperson eine Datenschutzerklärung haben? Die SECJUR-Datenschutzexperten klären auf.

Lesen
TO TOP