Stellen Sie sich vor, Ihr Unternehmen hat ein KI-gestütztes HR-Tool entwickelt, das erfolgreich Lebensläufe nach vordefinierten Kriterien sortiert. Es ist als System mit geringem Risiko eingestuft, die Compliance ist abgehakt – alles bestens. Doch dann entscheidet Ihr Produktteam, ein „kleines“ Update aufzuspielen: Das Tool soll nun nicht mehr nur sortieren, sondern auch vorhersagen, welche Kandidaten am wahrscheinlichsten erfolgreich im Unternehmen sein werden.
Ein cleveres Feature, aber unwissentlich haben Sie damit eine rote Linie des EU AI Acts überschritten. Ihr System ist über Nacht von einem risikoarmen zu einem Hochrisiko-KI-System geworden und unterliegt nun einer Fülle neuer, strenger Vorschriften. Dieses Szenario verdeutlicht eine der größten Herausforderungen des AI Acts: Compliance ist kein einmaliger Sprint, sondern ein dauerhafter Marathon.
In diesem Leitfaden erklären wir, wann eine Neubewertung Ihres KI-Systems erforderlich wird, was eine „wesentliche Änderung“ ausmacht und wie Sie den Prozess der Re-Klassifizierung meistern, um teure Strafen und rechtliche Fallstricke zu vermeiden.
Die Grundlage: Ein kurzer Blick auf die Risikopyramide des AI Act
Um zu verstehen, wann eine Neubewertung nötig ist, müssen wir uns kurz die Logik des AI Acts in Erinnerung rufen. Der AI Act teilt KI-Systeme in vier Risikoklassen ein, die jeweils unterschiedliche Pflichten nach sich ziehen.
- Inakzeptables Risiko: Systeme, die eine klare Bedrohung für die Grundrechte darstellen, sind verboten (z. B. Social Scoring durch Regierungen).
- Hohes Risiko: Systeme, die erhebliche Risiken für Gesundheit, Sicherheit oder Grundrechte bergen. Dazu gehören KI in kritischen Infrastrukturen, in der medizinischen Diagnostik oder im Personalwesen (Einstellung, Beförderung). Für sie gelten die strengsten Anforderungen.
- Begrenztes Risiko: Systeme mit spezifischen Transparenzpflichten. Nutzer müssen wissen, dass sie mit einer KI interagieren (z. B. Chatbots oder Deepfakes).
- Minimales oder kein Risiko: Die große Mehrheit der KI-Anwendungen, wie spamfilter oder KI in Videospielen. Für sie gelten keine besonderen Pflichten.
Die anfängliche Einstufung ist der erste Schritt. Doch die entscheidende Frage ist: Was passiert, wenn sich das System weiterentwickelt? Um diese Frage zu beantworten, müssen Sie lernen, wie Sie KI-Systeme nach dem AI Act klassifizieren und diesen Prozess als wiederkehrende Aufgabe verstehen.
Der entscheidende Faktor: Was ist eine „wesentliche Änderung“?
Der AI Act macht klar, dass ein KI-System neu bewertet werden muss, wenn es eine „wesentliche Änderung“ (Substantial Modification) erfährt. Laut Artikel 3 (23) des Gesetzes ist dies eine Änderung, die nach der Inbetriebnahme stattfindet, die Konformität des Systems mit den Anforderungen für Hochrisiko-Systeme beeinträchtigen könnte oder den ursprünglichen Verwendungszweck des Systems ändert.
Das klingt technisch, lässt sich aber auf vier Kernbereiche herunterbrechen, die eine Neubewertung auslösen können:
1. Änderung der Funktionalität
Hier geht es um die Kernaufgaben des KI-Systems. Eine kleine Fehlerbehebung oder ein Patch zur Cybersicherheit ist keine wesentliche Änderung. Eine Erweiterung der Fähigkeiten, die das Risikoprofil verändert, hingegen schon.
Praxisbeispiel:
- Vorher: Ein KI-Tool in der Radiologie markiert verdächtige Anomalien auf Röntgenbildern, die der Arzt dann begutachtet. (Unterstützende Funktion, hohes Risiko)
- Nachher: Ein Update ermöglicht dem Tool, eigenständig Diagnosen zu stellen und Behandlungsempfehlungen abzugeben. (Autonome Entscheidung, Risiko deutlich erhöht)
2. Änderung des Verwendungszwecks (Intended Purpose)
Der Verwendungszweck ist das, wofür das KI-System laut Anbieter konzipiert wurde. Ändert sich dieser Zweck, muss die Risikoklasse neu geprüft werden.
Praxisbeispiel:
- Vorher: Ein Chatbot ist dafür entwickelt, allgemeine Kundenanfragen zu Produkten zu beantworten. (Geringes Risiko)
- Nachher: Derselbe Chatbot wird so umprogrammiert, dass er Kunden nun personalisierte Finanz- oder Anlageberatung gibt. (Hohes Risiko, da erhebliche finanzielle Folgen für den Nutzer entstehen können)
3. Änderung der Dateninputs oder der Zielgruppe
Wenn ein System mit völlig neuen Daten trainiert wird oder für eine neue, sensiblere Zielgruppe eingesetzt wird, kann dies das Verhalten und damit das Risiko des Systems grundlegend verändern.
Praxisbeispiel:
- Vorher: Eine KI zur Gesichtserkennung wird zur Entsperrung von Smartphones genutzt. (Geringes Risiko)
- Nachher: Dieselbe Technologie wird an Strafverfolgungsbehörden verkauft, um Personen in Echtzeit im öffentlichen Raum zu identifizieren. (Hohes Risiko)
Typischer Fallstrick: Die Rolle des Betreibers Viele glauben, nur der Hersteller (Anbieter) eines KI-Systems kann eine wesentliche Änderung vornehmen. Das ist ein Irrtum! Auch Sie als Nutzer (Betreiber) können ein System in eine höhere Risikoklasse heben, indem Sie es für einen neuen Zweck einsetzen, für den es ursprünglich nicht gedacht war. Kaufen Sie ein risikoarmes Analyse-Tool und setzen es für Einstellungsentscheidungen ein, werden Sie zum Anbieter eines Hochrisiko-Systems und müssen alle damit verbundenen Pflichten erfüllen.
Der Re-Klassifizierungs-Playbook: Ein Prozess in 4 Schritten
Wenn Sie eine Änderung an einem KI-System planen, müssen Sie einen klaren Prozess befolgen. Betrachten Sie dies als festen Bestandteil Ihres Change-Management-Prozesses.
Schritt 1: Den Auslöser identifizieren
Bevor Sie ein Update implementieren, stellen Sie sich folgende Fragen:
- Verändert das Update, was die KI tut, oder nur, wie sie es tut (z. B. schneller, effizienter)?
- Ändert sich der vom Hersteller vorgesehene Verwendungszweck?
- Wird die KI nach dem Update Entscheidungen mit direkten, schwerwiegenden Folgen für Menschen treffen, die sie vorher nicht getroffen hat?
- Wird die KI in einem neuen, sensibleren Kontext oder für eine schutzbedürftigere Zielgruppe eingesetzt?
Wenn Sie eine dieser Fragen mit „Ja“ beantworten, liegt wahrscheinlich eine wesentliche Änderung vor.
Schritt 2: Die Neubewertung durchführen
Führen Sie den Klassifizierungsprozess erneut durch. Prüfen Sie, ob das System nun die Kriterien für ein Hochrisiko-System gemäß Artikel 6 und Anhang III des AI Acts erfüllt. Dies bedeutet oft, eine neue Konformitätsbewertung durchführen zu müssen, um die Einhaltung der gesetzlichen Anforderungen nachzuweisen.
Schritt 3: Die Dokumentation aktualisieren
Eine Neubewertung erfordert immer eine Anpassung der Dokumentation. Insbesondere die technische Dokumentation muss die Änderungen, die neue Risikobewertung und die Ergebnisse der neuen Konformitätsbewertung widerspiegeln. Lückenlose Dokumentation ist der Schlüssel zur Nachweisbarkeit Ihrer Compliance.
Schritt 4: Die neuen Pflichten erfüllen
Wenn Ihr System nun als Hochrisiko-System eingestuft wird, treten neue Verpflichtungen in Kraft. Dazu gehören unter anderem:
- Einrichtung eines Risikomanagementsystems.
- Registrierung des Systems in der EU-Datenbank für Hochrisiko-KI.
- Implementierung von Systemen zur Daten-Governance und menschlichen Aufsicht.
- Sicherstellung höchster Standards für Robustheit, Genauigkeit und Cybersicherheit.
Von der Reaktion zur Strategie: Laufendes Monitoring und Governance
Die Re-Klassifizierungspflicht zeigt, dass Compliance kein Projekt mit einem festen Enddatum ist. Unternehmen, die KI erfolgreich und rechtskonform einsetzen wollen, müssen Compliance als einen kontinuierlichen Prozess in den gesamten Lebenszyklus ihrer KI-Systeme integrieren.
Das bedeutet, interne Prozesse zu schaffen, die sicherstellen, dass jede geplante Änderung automatisch auf ihre Compliance-Relevanz geprüft wird. Anstatt Compliance als Hürde am Ende der Entwicklung zu sehen, wird sie zu einem integralen Bestandteil von Innovation und Produktmanagement.
Plattformen wie das Digital Compliance Office, helfen dabei, diesen Prozess zu automatisieren. Sie ermöglichen eine zentrale Verwaltung aller Compliance-Anforderungen, überwachen Änderungen und stellen sicher, dass Ihre Dokumentation immer auf dem neuesten Stand ist – damit Sie sich auf die Innovation konzentrieren können, nicht nur auf die Bürokratie.
Fazit: Machen Sie Compliance zum Teil Ihrer KI-Strategie
Der EU AI Act zwingt uns, über den gesamten Lebenszyklus von KI-Systemen nachzudenken. Die Pflicht zur Neubewertung bei wesentlichen Änderungen ist keine bürokratische Schikane, sondern ein logischer Mechanismus, um sicherzustellen, dass die Sicherheit und die Grundrechte der Menschen auch bei sich schnell entwickelnder Technologie gewahrt bleiben.
Indem Sie proaktive Governance-Prozesse etablieren und jede Systemänderung kritisch hinterfragen, verwandeln Sie eine rechtliche Verpflichtung in einen strategischen Vorteil. Sie bauen nicht nur vertrauenswürdige KI, sondern schützen Ihr Unternehmen auch vor unvorhergesehenen Risiken und Kosten.
Sind Sie bereit, Ihre KI-Compliance auf eine solide und zukunftssichere Basis zu stellen? Erfahren Sie mehr über die Compliance-Anforderungen des AI Act und wie Sie diese effizient und automatisiert erfüllen können.
Häufig gestellte Fragen (FAQ)
Was genau ist eine „wesentliche Änderung“?
Eine wesentliche Änderung ist jede Anpassung an einem bereits betriebenen KI-System, die dessen ursprünglichen Verwendungszweck ändert oder die Einhaltung der gesetzlichen Anforderungen so beeinflussen könnte, dass ein neues Risikoprofil entsteht.
Wer ist für die Re-Klassifizierung verantwortlich – der Anbieter oder der Nutzer?
Primär ist der Anbieter verantwortlich, wenn er das System ändert. Wenn jedoch ein Nutzer (Betreiber) ein System für einen neuen, risikoreicheren Zweck einsetzt, für den es nicht vorgesehen war, übernimmt er die Pflichten eines Anbieters und ist für die Neubewertung und Einhaltung der Vorschriften verantwortlich.
Was passiert, wenn ich ein System, das eine wesentliche Änderung erfahren hat, nicht neu klassifiziere?
Das Nichtbeachten der Re-Klassifizierungspflichten wird als schwerwiegender Verstoß gegen den AI Act gewertet. Dies kann zu empfindlichen Geldstrafen führen, die sich auf mehrere Millionen Euro oder einen Prozentsatz des weltweiten Jahresumsatzes belaufen können. Zudem kann der Betrieb des Systems untersagt werden.
Muss jedes Software-Update eine Neubewertung nach sich ziehen?
Nein. Reine Fehlerbehebungen (Bugfixes), Sicherheitsupdates oder kleinere Leistungsverbesserungen, die weder die Funktionalität noch den Verwendungszweck ändern, gelten nicht als wesentliche Änderungen und erfordern keine vollständige Neubewertung.