Beitrag teilen
HOME
/
blog
/
EU AI Act: Wann KI-Systeme neu klassifiziert werden müssen

EU AI Act: Wann KI-Systeme neu klassifiziert werden müssen

Niklas Hanitsch

Volljurist und Compliance-Experte

December 3, 2025

5 Minuten

Als Jurist mit langjähriger Erfahrung als Anwalt für Datenschutz und IT-Recht kennt Niklas die Antwort auf so gut wie jede Frage im Bereich der digitalen Compliance. Er war in der Vergangenheit unter anderem für Taylor Wessing und Amazon tätig. Als Gründer und Geschäftsführer von SECJUR, lässt Niklas sein Wissen vor allem in die Produktentwicklung unserer Compliance-Automatisierungsplattform einfließen.

Key Takeaways

Eine kleine Funktionsänderung kann Ihr KI-System sofort zum Hochrisiko-Fall machen.

Auch Betreiber können durch Zweckänderung selbst zum Anbieter werden.

Re-Klassifizierung ist keine Ausnahme, sondern Pflicht bei wesentlichen Änderungen.

Ohne laufendes Monitoring wird KI-Compliance schnell zum Haftungsrisiko.

Stellen Sie sich vor, Ihr Unternehmen hat ein KI-gestütztes HR-Tool entwickelt, das erfolgreich Lebensläufe nach vordefinierten Kriterien sortiert. Es ist als System mit geringem Risiko eingestuft, die Compliance ist abgehakt – alles bestens. Doch dann entscheidet Ihr Produktteam, ein „kleines“ Update aufzuspielen: Das Tool soll nun nicht mehr nur sortieren, sondern auch vorhersagen, welche Kandidaten am wahrscheinlichsten erfolgreich im Unternehmen sein werden.

Ein cleveres Feature, aber unwissentlich haben Sie damit eine rote Linie des EU AI Acts überschritten. Ihr System ist über Nacht von einem risikoarmen zu einem Hochrisiko-KI-System geworden und unterliegt nun einer Fülle neuer, strenger Vorschriften. Dieses Szenario verdeutlicht eine der größten Herausforderungen des AI Acts: Compliance ist kein einmaliger Sprint, sondern ein dauerhafter Marathon.

In diesem Leitfaden erklären wir, wann eine Neubewertung Ihres KI-Systems erforderlich wird, was eine „wesentliche Änderung“ ausmacht und wie Sie den Prozess der Re-Klassifizierung meistern, um teure Strafen und rechtliche Fallstricke zu vermeiden.

Die Grundlage: Ein kurzer Blick auf die Risikopyramide des AI Act

Um zu verstehen, wann eine Neubewertung nötig ist, müssen wir uns kurz die Logik des AI Acts in Erinnerung rufen. Der AI Act teilt KI-Systeme in vier Risikoklassen ein, die jeweils unterschiedliche Pflichten nach sich ziehen.

  • Inakzeptables Risiko: Systeme, die eine klare Bedrohung für die Grundrechte darstellen, sind verboten (z. B. Social Scoring durch Regierungen).
  • Hohes Risiko: Systeme, die erhebliche Risiken für Gesundheit, Sicherheit oder Grundrechte bergen. Dazu gehören KI in kritischen Infrastrukturen, in der medizinischen Diagnostik oder im Personalwesen (Einstellung, Beförderung). Für sie gelten die strengsten Anforderungen.
  • Begrenztes Risiko: Systeme mit spezifischen Transparenzpflichten. Nutzer müssen wissen, dass sie mit einer KI interagieren (z. B. Chatbots oder Deepfakes).
  • Minimales oder kein Risiko: Die große Mehrheit der KI-Anwendungen, wie spamfilter oder KI in Videospielen. Für sie gelten keine besonderen Pflichten.

Die anfängliche Einstufung ist der erste Schritt. Doch die entscheidende Frage ist: Was passiert, wenn sich das System weiterentwickelt? Um diese Frage zu beantworten, müssen Sie lernen, wie Sie KI-Systeme nach dem AI Act klassifizieren und diesen Prozess als wiederkehrende Aufgabe verstehen.

Der entscheidende Faktor: Was ist eine „wesentliche Änderung“?

Der AI Act macht klar, dass ein KI-System neu bewertet werden muss, wenn es eine „wesentliche Änderung“ (Substantial Modification) erfährt. Laut Artikel 3 (23) des Gesetzes ist dies eine Änderung, die nach der Inbetriebnahme stattfindet, die Konformität des Systems mit den Anforderungen für Hochrisiko-Systeme beeinträchtigen könnte oder den ursprünglichen Verwendungszweck des Systems ändert.

Das klingt technisch, lässt sich aber auf vier Kernbereiche herunterbrechen, die eine Neubewertung auslösen können:

1. Änderung der Funktionalität

Hier geht es um die Kernaufgaben des KI-Systems. Eine kleine Fehlerbehebung oder ein Patch zur Cybersicherheit ist keine wesentliche Änderung. Eine Erweiterung der Fähigkeiten, die das Risikoprofil verändert, hingegen schon.

Praxisbeispiel:

  • Vorher: Ein KI-Tool in der Radiologie markiert verdächtige Anomalien auf Röntgenbildern, die der Arzt dann begutachtet. (Unterstützende Funktion, hohes Risiko)
  • Nachher: Ein Update ermöglicht dem Tool, eigenständig Diagnosen zu stellen und Behandlungsempfehlungen abzugeben. (Autonome Entscheidung, Risiko deutlich erhöht)

2. Änderung des Verwendungszwecks (Intended Purpose)

Der Verwendungszweck ist das, wofür das KI-System laut Anbieter konzipiert wurde. Ändert sich dieser Zweck, muss die Risikoklasse neu geprüft werden.

Praxisbeispiel:

  • Vorher: Ein Chatbot ist dafür entwickelt, allgemeine Kundenanfragen zu Produkten zu beantworten. (Geringes Risiko)
  • Nachher: Derselbe Chatbot wird so umprogrammiert, dass er Kunden nun personalisierte Finanz- oder Anlageberatung gibt. (Hohes Risiko, da erhebliche finanzielle Folgen für den Nutzer entstehen können)

3. Änderung der Dateninputs oder der Zielgruppe

Wenn ein System mit völlig neuen Daten trainiert wird oder für eine neue, sensiblere Zielgruppe eingesetzt wird, kann dies das Verhalten und damit das Risiko des Systems grundlegend verändern.

Praxisbeispiel:

  • Vorher: Eine KI zur Gesichtserkennung wird zur Entsperrung von Smartphones genutzt. (Geringes Risiko)
  • Nachher: Dieselbe Technologie wird an Strafverfolgungsbehörden verkauft, um Personen in Echtzeit im öffentlichen Raum zu identifizieren. (Hohes Risiko)

Typischer Fallstrick: Die Rolle des Betreibers  Viele glauben, nur der Hersteller (Anbieter) eines KI-Systems kann eine wesentliche Änderung vornehmen. Das ist ein Irrtum! Auch Sie als Nutzer (Betreiber) können ein System in eine höhere Risikoklasse heben, indem Sie es für einen neuen Zweck einsetzen, für den es ursprünglich nicht gedacht war. Kaufen Sie ein risikoarmes Analyse-Tool und setzen es für Einstellungsentscheidungen ein, werden Sie zum Anbieter eines Hochrisiko-Systems und müssen alle damit verbundenen Pflichten erfüllen.

Der Re-Klassifizierungs-Playbook: Ein Prozess in 4 Schritten

Wenn Sie eine Änderung an einem KI-System planen, müssen Sie einen klaren Prozess befolgen. Betrachten Sie dies als festen Bestandteil Ihres Change-Management-Prozesses.

Schritt 1: Den Auslöser identifizieren

Bevor Sie ein Update implementieren, stellen Sie sich folgende Fragen:

  • Verändert das Update, was die KI tut, oder nur, wie sie es tut (z. B. schneller, effizienter)?
  • Ändert sich der vom Hersteller vorgesehene Verwendungszweck?
  • Wird die KI nach dem Update Entscheidungen mit direkten, schwerwiegenden Folgen für Menschen treffen, die sie vorher nicht getroffen hat?
  • Wird die KI in einem neuen, sensibleren Kontext oder für eine schutzbedürftigere Zielgruppe eingesetzt?

Wenn Sie eine dieser Fragen mit „Ja“ beantworten, liegt wahrscheinlich eine wesentliche Änderung vor.

Schritt 2: Die Neubewertung durchführen

Führen Sie den Klassifizierungsprozess erneut durch. Prüfen Sie, ob das System nun die Kriterien für ein Hochrisiko-System gemäß Artikel 6 und Anhang III des AI Acts erfüllt. Dies bedeutet oft, eine neue Konformitätsbewertung durchführen zu müssen, um die Einhaltung der gesetzlichen Anforderungen nachzuweisen.

Schritt 3: Die Dokumentation aktualisieren

Eine Neubewertung erfordert immer eine Anpassung der Dokumentation. Insbesondere die technische Dokumentation muss die Änderungen, die neue Risikobewertung und die Ergebnisse der neuen Konformitätsbewertung widerspiegeln. Lückenlose Dokumentation ist der Schlüssel zur Nachweisbarkeit Ihrer Compliance.

Schritt 4: Die neuen Pflichten erfüllen

Wenn Ihr System nun als Hochrisiko-System eingestuft wird, treten neue Verpflichtungen in Kraft. Dazu gehören unter anderem:

  • Einrichtung eines Risikomanagementsystems.
  • Registrierung des Systems in der EU-Datenbank für Hochrisiko-KI.
  • Implementierung von Systemen zur Daten-Governance und menschlichen Aufsicht.
  • Sicherstellung höchster Standards für Robustheit, Genauigkeit und Cybersicherheit.

Von der Reaktion zur Strategie: Laufendes Monitoring und Governance

Die Re-Klassifizierungspflicht zeigt, dass Compliance kein Projekt mit einem festen Enddatum ist. Unternehmen, die KI erfolgreich und rechtskonform einsetzen wollen, müssen Compliance als einen kontinuierlichen Prozess in den gesamten Lebenszyklus ihrer KI-Systeme integrieren.

Das bedeutet, interne Prozesse zu schaffen, die sicherstellen, dass jede geplante Änderung automatisch auf ihre Compliance-Relevanz geprüft wird. Anstatt Compliance als Hürde am Ende der Entwicklung zu sehen, wird sie zu einem integralen Bestandteil von Innovation und Produktmanagement.

Plattformen wie das Digital Compliance Office, helfen dabei, diesen Prozess zu automatisieren. Sie ermöglichen eine zentrale Verwaltung aller Compliance-Anforderungen, überwachen Änderungen und stellen sicher, dass Ihre Dokumentation immer auf dem neuesten Stand ist – damit Sie sich auf die Innovation konzentrieren können, nicht nur auf die Bürokratie.

Fazit: Machen Sie Compliance zum Teil Ihrer KI-Strategie

Der EU AI Act zwingt uns, über den gesamten Lebenszyklus von KI-Systemen nachzudenken. Die Pflicht zur Neubewertung bei wesentlichen Änderungen ist keine bürokratische Schikane, sondern ein logischer Mechanismus, um sicherzustellen, dass die Sicherheit und die Grundrechte der Menschen auch bei sich schnell entwickelnder Technologie gewahrt bleiben.

Indem Sie proaktive Governance-Prozesse etablieren und jede Systemänderung kritisch hinterfragen, verwandeln Sie eine rechtliche Verpflichtung in einen strategischen Vorteil. Sie bauen nicht nur vertrauenswürdige KI, sondern schützen Ihr Unternehmen auch vor unvorhergesehenen Risiken und Kosten.

Sind Sie bereit, Ihre KI-Compliance auf eine solide und zukunftssichere Basis zu stellen? Erfahren Sie mehr über die Compliance-Anforderungen des AI Act und wie Sie diese effizient und automatisiert erfüllen können.

Häufig gestellte Fragen (FAQ)

Was genau ist eine „wesentliche Änderung“?

Eine wesentliche Änderung ist jede Anpassung an einem bereits betriebenen KI-System, die dessen ursprünglichen Verwendungszweck ändert oder die Einhaltung der gesetzlichen Anforderungen so beeinflussen könnte, dass ein neues Risikoprofil entsteht.

Wer ist für die Re-Klassifizierung verantwortlich – der Anbieter oder der Nutzer?

Primär ist der Anbieter verantwortlich, wenn er das System ändert. Wenn jedoch ein Nutzer (Betreiber) ein System für einen neuen, risikoreicheren Zweck einsetzt, für den es nicht vorgesehen war, übernimmt er die Pflichten eines Anbieters und ist für die Neubewertung und Einhaltung der Vorschriften verantwortlich.

Was passiert, wenn ich ein System, das eine wesentliche Änderung erfahren hat, nicht neu klassifiziere?

Das Nichtbeachten der Re-Klassifizierungspflichten wird als schwerwiegender Verstoß gegen den AI Act gewertet. Dies kann zu empfindlichen Geldstrafen führen, die sich auf mehrere Millionen Euro oder einen Prozentsatz des weltweiten Jahresumsatzes belaufen können. Zudem kann der Betrieb des Systems untersagt werden.

Muss jedes Software-Update eine Neubewertung nach sich ziehen?

Nein. Reine Fehlerbehebungen (Bugfixes), Sicherheitsupdates oder kleinere Leistungsverbesserungen, die weder die Funktionalität noch den Verwendungszweck ändern, gelten nicht als wesentliche Änderungen und erfordern keine vollständige Neubewertung.

Niklas Hanitsch

Als Jurist mit langjähriger Erfahrung als Anwalt für Datenschutz und IT-Recht kennt Niklas die Antwort auf so gut wie jede Frage im Bereich der digitalen Compliance. Er war in der Vergangenheit unter anderem für Taylor Wessing und Amazon tätig. Als Gründer und Geschäftsführer von SECJUR, lässt Niklas sein Wissen vor allem in die Produktentwicklung unserer Compliance-Automatisierungsplattform einfließen.

Über SECJUR

SECJUR steht für eine Welt, in der Unternehmen immer compliant sind, aber nie an Compliance denken müssen. Mit dem Digital Compliance Office automatisieren Unternehmen aufwändige Arbeitsschritte und erlangen Compliance-Standards wie DSGVO, ISO 27001 oder TISAX® bis zu 50% schneller.

Compliance, completed

Automatisieren Sie Ihre Compliance Prozesse mit dem Digital Compliance Office

Mehr erfahren

Frequently asked questions

Everything you need to know about the product and billing.

Weiterlesen

November 10, 2025
5 Minuten
ISO 27001 Dokumentation: Von der Pflicht zur strategischen Stärke

Viele Unternehmen empfinden die ISO 27001-Dokumentation als aufwendig und schwerfällig. Doch richtig umgesetzt wird sie vom Pflichtdokument zum strategischen Steuerungsinstrument. Dieser Leitfaden zeigt, wie Sie Richtlinien, Prozesse und Nachweise so aufbauen und pflegen, dass sie Ihr ISMS nicht nur beschreiben, sondern aktiv lenken. So schaffen Sie Transparenz, stärken Verantwortlichkeiten und erhöhen nachhaltig das Sicherheitsniveau Ihres Unternehmens.

Lesen
June 7, 2023
12 min
Was ist die DSGVO? Der SECJUR-Guide zur Datenschutz-Grundverordnung

Tauchen Sie ein in die Welt der Datenschutz-Grundverordnung (DSGVO) und erfahren Sie in unserem neuen Blogartikel alles Wichtige rund um dieses bedeutende Thema. Erfahren Sie, was die DSGVO ist und warum sie eine immense Bedeutung hat. Entdecken Sie die vielfältigen Anforderungen und Maßnahmen, die Unternehmen beachten und umsetzen müssen, um im Einklang mit der DSGVO zu agieren. Tauchen Sie ein in konkrete Anwendungsbeispiele aus dem Unternehmensalltag und erhalten Sie wertvolle Tipps, wie Unternehmen die DSGVO einfach einhalten können.

Lesen
December 3, 2025
5 Minuten
EU AI Act: Datenqualität für Hochrisiko-KI

Viele Unternehmen fokussieren sich beim EU AI Act auf Algorithmen, doch die wahre Compliance-Herausforderung liegt in der Datenqualität. Erfahren Sie, welche fünf Säulen Artikel 10 für Hochrisiko-KI vorschreibt und wie Sie Verzerrungen, Haftungsrisiken und Zulassungsprobleme vermeiden. Dieser Praxisleitfaden zeigt, wie Sie Daten-Governance strategisch aufbauen und vertrauenswürdige, rechtskonforme KI entwickeln.

Lesen
TO TOP