



Volljurist und Compliance-Experte
January 6, 2026
4 Minuten
Als Jurist mit langjähriger Erfahrung als Anwalt für Datenschutz und IT-Recht kennt Niklas die Antwort auf so gut wie jede Frage im Bereich der digitalen Compliance. Er war in der Vergangenheit unter anderem für Taylor Wessing und Amazon tätig. Als Gründer und Geschäftsführer von SECJUR, lässt Niklas sein Wissen vor allem in die Produktentwicklung unserer Compliance-Automatisierungsplattform einfließen.
Der Einsatzbereich entscheidet über die Risikoklasse eines KI-Systems und damit über die Anforderungen des EU AI Acts.
Je höher das Risiko, desto strenger die Vorgaben zur Transparenz, Kontrolle und Sicherheit.
Ein 4-Schritte-Framework hilft, KI-Systeme klar und rechtssicher zu klassifizieren.
Eine saubere Klassifizierung vermeidet Bußgelder, schafft Vertrauen und fördert nachhaltige KI-Innovation.
Die Risikoklassifizierung ist das Herzstück des EU AI Acts – und für Unternehmen die entscheidende Weichenstellung. Eine Fehleinschätzung kann zu Bußgeldern in Millionenhöhe führen, während ein zu vorsichtiger Ansatz Innovationen lähmt. Doch die meisten verfügbaren Informationen von Anwaltskanzleien oder Beratungsfirmen bleiben an der Oberfläche. Sie erklären, was die Risikoklassen sind, aber nicht, wie Sie Ihr KI-System in der Praxis zuverlässig einordnen.
Dieser Leitfaden schließt diese Lücke. Wir übersetzen komplexe juristische Anforderungen in einen klaren, nachvollziehbaren Prozess. Anstatt Sie mit Paragrafen zu überhäufen, geben wir Ihnen ein praxiserprobtes Framework an die Hand, mit dem Sie Ihr KI-System selbstbewusst klassifizieren und kostspielige Fehler vermeiden können.
Der AI Act verfolgt einen risikobasierten Ansatz. Das bedeutet: Je höher das potenzielle Risiko eines KI-Systems für Gesundheit, Sicherheit oder Grundrechte ist, desto strenger sind die regulatorischen Anforderungen. Die vier Risikostufen bilden eine Pyramide, an deren Spitze die strengsten Regeln stehen.
Diese Struktur macht deutlich, dass die Mehrheit der KI-Anwendungen unter die unteren beiden, weniger regulierten Stufen fallen wird. Der Fokus der EU liegt klar auf den Systemen mit hohem Schadenspotenzial.
Bevor wir in den Prozess eintauchen, müssen wir das wichtigste Prinzip verstehen, das viele Unternehmen übersehen: Der AI Act reguliert nicht die KI-Technologie an sich, sondern deren konkreten Anwendungsfall (Use Case).
Ein Bilderkennungsalgorithmus ist per se weder gut noch schlecht. Sein Risiko hängt allein vom Einsatzzweck ab:
Es ist immer die Anwendung, die das Risiko definiert. Diese Erkenntnis ist der Schlüssel zu einer korrekten Klassifizierung und der erste Schritt, um unnötigen Compliance-Aufwand zu vermeiden.
Andere Quellen definieren die Risikostufen – wir geben Ihnen den Entscheidungsprozess an die Hand. Folgen Sie diesem Ablauf, um Ihr System präzise zuzuordnen.
Die erste Frage ist immer: Fällt Ihr Anwendungsfall in die Liste der verbotenen Praktiken gemäß Artikel 5 des AI Acts? Diese Systeme werden als Bedrohung für die Werte der EU angesehen und sind grundsätzlich untersagt.
Fragen Sie sich:
Wenn Sie eine dieser Fragen mit „Ja“ beantworten, fällt Ihr System in die Kategorie des inakzeptablen Risikos und darf nicht betrieben werden.
Wenn Ihr System nicht verboten ist, prüfen Sie als Nächstes, ob es als hochriskant eingestuft wird. Hier gibt es zwei Hauptwege, die in Artikel 6 definiert sind:
Wenn Ihr System in eine dieser Kategorien fällt, gilt es als Hochrisiko-KI und unterliegt den strengsten Anforderungen des AI Acts. Eine robuste Dokumentation und ein solides Risikomanagement, wie es im Rahmen einer ISO 27001 Zertifizierung etabliert wird, ist hier unerlässlich.
Systeme mit begrenztem Risiko sind nicht hochriskant, bergen aber die Gefahr der Täuschung oder Manipulation. Fällt Ihr System nicht unter Schritt 1 oder 2, prüfen Sie, ob es eine der folgenden Funktionen erfüllt:
Wenn ja, unterliegt Ihr System spezifischen Transparenzpflichten, ist aber ansonsten nur leicht reguliert.
Wenn Ihr KI-System keine der Kriterien aus den Schritten 1 bis 3 erfüllt, fällt es in die Kategorie des minimalen Risikos. Dies betrifft die große Mehrheit aller KI-Anwendungen wie KI-gestützte Spamfilter, Bestandsverwaltungssysteme oder die meisten KI-Funktionen in Videospielen.
Für diese Systeme gibt es keine verpflichtenden Vorgaben aus dem AI Act. Die EU ermutigt jedoch zur freiwilligen Einhaltung von Verhaltenskodizes.
Die Klassifizierung von Basismodellen wie GPT-4 oder Open-Source-Modellen ist komplex. Der AI Act unterscheidet hier:
Wichtig ist auch hier der Grundsatz: Die Regulierung zielt primär auf den Downstream-Anbieter, der das Modell für einen konkreten Hochrisiko-Anwendungsfall einsetzt. Die Nutzung eines Open-Source-Modells entbindet Sie nicht von der Pflicht, Ihre spezifische Anwendung zu klassifizieren und die entsprechenden Anforderungen zu erfüllen.
Die korrekte Einstufung ist keine akademische Übung, sondern eine geschäftskritische Notwendigkeit. Die Strafen für Verstöße sind empfindlich und sollen eine abschreckende Wirkung haben.
Diese Zahlen verdeutlichen, dass eine sorgfältige und dokumentierte Klassifizierung ein zentraler Baustein Ihrer Risikomanagement-Strategie sein muss.
Die Risikoklassifizierung ist der erste und wichtigste Schritt auf dem Weg zur Konformität mit dem EU AI Act. Der Schlüssel liegt darin, den Fokus vom Was auf das Wie zu verlagern – vom reinen Wissen über die Risikostufen hin zu einem strukturierten Prozess zur Einordnung Ihrer spezifischen Anwendung.
Dieser Prozess erfordert Sorgfalt, aber er muss nicht überfordernd sein. Mit einem klaren Framework und einem Verständnis für das Kernprinzip der Anwendungsfall-Abhängigkeit schaffen Sie die Grundlage für eine sichere und rechtskonforme KI-Innovation.
Die Anforderungen des AI Acts, insbesondere für Hochrisiko-Systeme, sind komplex. Plattformen wie das Digital Compliance Office von SECJUR helfen Ihnen, diese Anforderungen systematisch zu managen, von der Dokumentation über das Risikomanagement bis hin zur kontinuierlichen Überwachung. So verwandeln Sie regulatorische Hürden in einen nachweisbaren Wettbewerbsvorteil.
Die Klassifizierung ist ein dynamischer Prozess. Wenn Sie den beabsichtigten Zweck eines KI-Systems wesentlich ändern, müssen Sie den Klassifizierungsprozess erneut durchlaufen. Ein System, das ursprünglich als minimales Risiko eingestuft wurde, könnte durch einen neuen Use Case zu einem Hochrisiko-System werden.
Nein. Als Anbieter, der ein KI-System auf den Markt bringt oder in Betrieb nimmt, sind Sie für die korrekte Klassifizierung und die Einhaltung der entsprechenden Pflichten für Ihren spezifischen Anwendungsfall verantwortlich. Die Compliance des Basismodells ist eine notwendige, aber keine hinreichende Bedingung.
Nicht zwangsläufig. Der AI Act sieht eine Konformitätsbewertung vor. Bei den meisten Hochrisiko-Systemen gemäß Anhang III ist eine interne Kontrolle durch den Anbieter ausreichend, solange harmonisierte Normen eingehalten werden. Nur bei bestimmten, besonders kritischen Systemen (z.B. biometrische Identifizierung) ist eine Bewertung durch eine benannte Stelle (Drittpartei) zwingend erforderlich.

Als Jurist mit langjähriger Erfahrung als Anwalt für Datenschutz und IT-Recht kennt Niklas die Antwort auf so gut wie jede Frage im Bereich der digitalen Compliance. Er war in der Vergangenheit unter anderem für Taylor Wessing und Amazon tätig. Als Gründer und Geschäftsführer von SECJUR, lässt Niklas sein Wissen vor allem in die Produktentwicklung unserer Compliance-Automatisierungsplattform einfließen.
SECJUR steht für eine Welt, in der Unternehmen immer compliant sind, aber nie an Compliance denken müssen. Mit dem Digital Compliance Office automatisieren Unternehmen aufwändige Arbeitsschritte und erlangen Compliance-Standards wie DSGVO, ISO 27001 oder TISAX® bis zu 50% schneller.
Automatisieren Sie Ihre Compliance Prozesse mit dem Digital Compliance Office
Everything you need to know about the product and billing.

Werden personenbezogene Daten eines Arbeitnehmers als betroffener Person (vgl. Art. 4 Nr. 1 DSGVO) von dem Arbeitgeber als Verantwortlichem (Art. 4 Nr. 7 DSGVO) verarbeitet, befinden wir uns in einem sehr spezifischen rechtlichen Verhältnis. In dieser Konstellation gilt der sogenannte Arbeitnehmerdatenschutz.

Am 1. Februar war internationaler Change-Your-Password-Day, ein Tag, der den Schutz der eigenen Daten durch sichere Passwörter wieder in die Köpfe der Internetnutzer rufen soll. Wie lange ist es her, dass Sie Ihre Passwörter das letzte Mal geändert haben? Wenn Sie sich nicht mehr daran erinnern können, dann haben wir hier alle wichtigen Informationen zur sicheren Vergabe von Passwörtern für Sie zusammengetragen.

Agile Teams fürchten oft, dass ISO 27001 ihre Geschwindigkeit bremst, doch das Gegenteil ist wahr. Dieser Leitfaden zeigt, wie moderne Versionskontrolle in Confluence oder Git Ihre Dokumentation auditfest macht, ohne die Agilität zu verlieren. Erfahren Sie, wie Sie Änderungen transparent steuern, Freigaben sauber dokumentieren und Ihr ISMS nahtlos in den Entwicklungsfluss integrieren – für mehr Sicherheit, Effizienz und echte Compliance im Alltag.