Beitrag teilen
HOME
/
blog
/
EU AI Act: Risiken durch Haftung und Strafen

EU AI Act: Risiken durch Haftung und Strafen

Niklas Hanitsch

Volljurist und Compliance-Experte

January 7, 2026

5 Minuten

Als Jurist mit langjähriger Erfahrung als Anwalt für Datenschutz und IT-Recht kennt Niklas die Antwort auf so gut wie jede Frage im Bereich der digitalen Compliance. Er war in der Vergangenheit unter anderem für Taylor Wessing und Amazon tätig. Als Gründer und Geschäftsführer von SECJUR, lässt Niklas sein Wissen vor allem in die Produktentwicklung unserer Compliance-Automatisierungsplattform einfließen.

Key Takeaways

Der EU AI Act macht KI-Compliance zu einem zentralen Geschäftsrisiko.

Hohe Bußgelder treffen besonders Hochrisiko-KI ohne saubere Governance.

Unternehmen können durch falsche Nutzung selbst zum haftenden Anbieter werden.

Lückenlose Dokumentation ist der wichtigste Schutz vor Haftung und Sanktionen.

Stellen Sie sich vor, Ihr Unternehmen hat Monate in die Implementierung eines neuen KI-gestützten Bewerbermanagementsystems investiert. Die Effizienz steigt, die Kosten sinken. Doch dann flattert ein Brief der Aufsichtsbehörde ins Haus: Ein Verstoß gegen Artikel 5 des EU AI Acts. Die potenzielle Strafe? Bis zu 35 Millionen Euro oder 7 % Ihres weltweiten Jahresumsatzes.

Für viele Geschäftsführer und Compliance-Verantwortliche in Deutschland ist dies kein abstraktes Dystopie-Szenario, sondern ein sehr reales Risiko. Eine aktuelle Deloitte-Umfrage zeigt, dass fast 48,6 % der deutschen Unternehmen sich noch nicht ernsthaft mit der Umsetzung des EU AI Acts befasst haben.

Dieser Leitfaden ist nicht dazu da, Panik zu verbreiten, sondern Klarheit zu schaffen. Wir transformieren den komplexen Gesetzestext in eine handlungsfähige Strategie, mit der Sie Haftungsrisiken minimieren und Compliance von einer Bremse zu einem Wettbewerbsvorteil machen.

Das Sanktionsregime entschlüsselt: Mehr als nur Bußgelder

Der EU AI Act (Artikel 99) führt ein dreistufiges Sanktionsmodell ein, das in seiner Härte durchaus mit der DSGVO vergleichbar ist – in der Spitze sogar darüber hinausgeht. Für Entscheidungsträger ist es essenziell zu verstehen, dass diese Strafen „wirksam, verhältnismäßig und abschreckend“ sein sollen.

Das Drei-Stufen-Modell der finanziellen Sanktionen

Die Höhe der Bußgelder richtet sich nach der Schwere des Verstoßes. Hier gilt: Unwissenheit schützt vor Strafe nicht, und die Aufsichtsbehörden haben wenig Spielraum bei klaren Verstößen.

  1. Verbotene KI-Praktiken (Bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes): Dies ist die Höchststrafe. Sie wird fällig, wenn Sie KI-Systeme einsetzen, die ein inakzeptables Risiko darstellen. Dazu gehören Social Scoring, kognitive Verhaltensmanipulation bei Schutzbefohlenen oder biometrische Echtzeit-Fernidentifizierung in öffentlich zugänglichen Räumen. Beispiel: Ein deutsches Sicherheitsunternehmen setzt ohne strenge richterliche Anordnung eine KI zur Gesichtserkennung im öffentlichen Nahverkehr ein.
  2. Verstöße gegen Pflichten bei Hochrisiko-KI (Bis zu 15 Mio. € oder 3 % des weltweiten Jahresumsatzes): Dies betrifft den Kernbereich der meisten Industrieanwendungen (z. B. KI in kritischer Infrastruktur, HR, Kreditvergabe). Verstöße gegen Daten-Governance, Transparenzpflichten oder menschliche Aufsicht fallen hierunter. Szenario: Eine Bank nutzt eine KI zur Kreditwürdigkeitsprüfung, kann aber nicht nachweisen, dass der Datensatz frei von verzerrenden Bias (Voreingenommenheit) ist.
  3. Falsche Angaben gegenüber Behörden (Bis zu 7,5 Mio. € oder 1,5 % des weltweiten Jahresumsatzes): Werden unvollständige oder irreführende Informationen an notifizierte Stellen oder nationale Aufsichtsbehörden übermittelt, greift diese Stufe.

Übersicht der Bußgeldstufen hilft Unternehmen, Sanktionen schnell zu verstehen und Haftungsrisiken einzuschätzen.

Wichtig für KMU: Der Gesetzgeber hat erkannt, dass diese Summen für den Mittelstand existenzbedrohend sein können. Für KMU und Startups gelten daher oft niedrigere Schwellenwerte, wobei jeweils der niedrigere Betrag angesetzt wird – im Gegensatz zu Großkonzernen, wo der höhere Wert gilt. Dennoch bleibt die finanzielle Last immens.

Wer einen schnellen Überblick über den aktuellen Stand der Regulierung sucht, findet in unserer Zusammenfassung des EU AI Act weitere Details zum Zeitplan und Inkrafttreten.

Jenseits der Bußgelder: Zivilrechtliche Haftung und Reputationsschäden

Während Bußgelder die Bilanz belasten, können zivilrechtliche Klagen und Reputationsverlust das gesamte Geschäftsmodell gefährden.

Die Beweislastumkehr (KI-Haftungsrichtlinie)

Parallel zum AI Act plant die EU die KI-Haftungsrichtlinie (AI Liability Directive). Der kritischste Punkt hierbei ist die Kausalitätsvermutung. Normalerweise muss der Geschädigte beweisen, dass ein Fehler im System den Schaden verursacht hat. Bei komplexen KI-Systemen ("Black Box") ist das für Laien fast unmöglich. Daher dreht die EU den Spieß um: Sie als Unternehmen müssen beweisen, dass Ihre KI nicht fehlerhaft war. Gelingt dieser Nachweis nicht (etwa durch lückenhafte Dokumentation), haften Sie für den Schaden.

Reputationsrisiko: Der unsichtbare Kostenfaktor

In einer Zeit, in der Vertrauen die wichtigste Währung ist, wiegt ein "KI-Skandal" schwer. Wenn bekannt wird, dass Ihre Bewerbungs-KI Frauen diskriminiert oder Ihr Chatbot sensible Kundendaten halluziniert, ist der Image-Schaden oft teurer als jedes Bußgeld. Kunden und Partner erwarten heute EU AI Act Compliance Software Standards, die Sicherheit garantieren.

Verständnis der zivilrechtlichen Folgen und Reputationsrisiken sensibilisiert Unternehmen für die umfassenden Haftungsgefahren.

Wer haftet eigentlich? Rollenverständnis in der Wertschöpfungskette

Ein häufiges Missverständnis in unseren Beratungen: "Wir nutzen die KI doch nur, wir haben sie nicht programmiert. Also haften wir nicht." Das ist ein gefährlicher Irrtum.

Der AI Act unterscheidet strikt zwischen verschiedenen Akteuren, und die Haftung kann sich verschieben.

  1. Anbieter (Provider): Entwickelt das KI-System oder lässt es entwickeln und bringt es unter eigenem Namen auf den Markt. Trägt die Hauptlast der Compliance (CE-Kennzeichnung, Risikomanagement).
  2. Betreiber (Deployer/User): Nutzt das KI-System in eigener Verantwortung (z. B. ein Unternehmen, das eine HR-Software einsetzt). Pflichten: Sicherstellung der menschlichen Aufsicht, Überwachung auf Anomalien, Information der Betroffenen (z. B. Arbeitnehmer).

Der "Provider Shift": Wenn der Nutzer zum Hersteller wird

Hier lauert eine der größten Haftungsfallen. Ein Unternehmen gilt ursprünglich als Betreiber. Passt dieses Unternehmen das KI-System jedoch wesentlich an (z. B. durch Fine-Tuning eines LLMs mit eigenen Daten) oder ändert den Verwendungszweck, wird es rechtlich zum Anbieter. Damit treffen Sie plötzlich alle Herstellerpflichten – von der technischen Dokumentation bis zur Registrierung in der EU-Datenbank.

Klare Visualisierung der Verantwortlichkeiten stärkt das Verständnis der Haftungsstruktur über die KI-Wertschöpfungskette.

Der risikobasierte Ansatz: Wo stehen Sie?

Nicht jede KI ist gleich reguliert. Um Ihre Haftung einzuschätzen, müssen Sie Ihre Systeme kategorisieren. Ein Fehler hierbei ist der Startpunkt für fast alle Bußgelder.

  • Unannehmbares Risiko: Verboten. Sofortiger Stopp notwendig.
  • Hohes Risiko (High-Risk): Strenge Auflagen. Hier passieren die meisten Fehler. Darunter fallen KI-Systeme in Bildung, Kritischer Infrastruktur, Strafverfolgung und HR. Für detaillierte Informationen zu diesem kritischen Bereich, lesen Sie unseren Artikel zu EU AI Act Hochrisiko-Systemen.
  • Begrenztes Risiko: Transparenzpflichten (z. B. Kennzeichnung von Chatbots oder Deepfakes).
  • Minimales Risiko: Keine neuen Pflichten (z. B. Spam-Filter).

Die deutsche Perspektive: Umsetzung und Aufsicht

Deutschland steht bei der Umsetzung vor besonderen Herausforderungen. Während die Wirtschaft nach Planungssicherheit ruft, gibt es Verzögerungen. So hat Deutschland die Frist zur Benennung einer nationalen Aufsichtsbehörde (wahrscheinlich die Bundesnetzagentur) verpasst.

Was bedeutet das für Sie?Es herrscht aktuell ein gewisses Vakuum bei der Durchsetzung, doch das ist trügerisch. Die IHK und andere Verbände warnen vor einem "Gold Plating" (Überregulierung) bei der nationalen Umsetzung. Gleichzeitig bieten sogenannte Reallabor KI (Regulatory Sandboxes) eine Chance, KI-Systeme in einer kontrollierten Umgebung ohne volles Haftungsrisiko zu testen. Nutzen Sie diese Möglichkeiten, wenn Sie innovative Lösungen entwickeln.

Das Zusammenspiel mit der DSGVO

In Deutschland ist Datenschutz heilig. Der AI Act ersetzt die DSGVO nicht, er ergänzt sie. Ein Verstoß gegen den AI Act ist oft simultan ein Verstoß gegen die DSGVO (z. B. bei der Datenverwendung für das Training). Praxis-Tipp: Ihre Compliance-Strategie muss integriert sein. Ein isoliertes "AI-Silo" wird scheitern. Wenn Sie bereits Prozesse für ISO 27001 oder TISAX etabliert haben, sollten Sie diese Synergien nutzen.

Proaktive Compliance: Ihr strategischer Fahrplan

Wie schützen Sie sich nun konkret vor Haftung und Sanktionen? Warten ist keine Option. Hier ist ein Fahrplan für die nächsten Quartale:

  1. Bestandsaufnahme (Inventory): Erfassen Sie alle KI-Systeme im Unternehmen – auch die "Schatten-IT".
  2. Klassifizierung: Ordnen Sie jedem System eine Risikokategorie zu.
  3. Governance-Struktur: Benennen Sie Verantwortliche (z. B. einen AI Compliance Officer).
  4. AI Literacy (Artikel 4): Schulen Sie Ihre Mitarbeiter. Der AI Act schreibt vor, dass Personal, das mit KI arbeitet, über ausreichende Kompetenz verfügen muss. Dokumentieren Sie diese Schulungen penibel.
  5. Dokumentation und Logging: Bei Hochrisiko-KI müssen Sie beweisen können, was das System wann und warum getan hat. Automatisierte Logging-Systeme sind hier unverzichtbar.

Strategische Umsetzungsschritte erleichtern Unternehmen den Weg zur regulatorischen Sicherheit und minimieren Haftungsrisiken.

Fazit: Vom Risiko zur Chance

Die Haftungsrisiken des EU AI Acts sind signifikant, aber beherrschbar. Unternehmen, die jetzt handeln, sichern sich nicht nur gegen Bußgelder ab, sondern signalisieren ihren Kunden und Partnern: "Wir nehmen Verantwortung ernst." In einer Welt voller "Black Box"-Algorithmen wird Transparenz und Compliance zum ultimativen Wettbewerbsvorteil.

Warten Sie nicht, bis die Aufsichtsbehörde anklopft oder der erste Haftungsfall eintritt. Beginnen Sie heute mit der systematischen Einordnung Ihrer KI-Landschaft.

Häufig gestellte Fragen (FAQ)

Frage: Gilt der AI Act auch für KI-Modelle aus den USA (z. B. OpenAI)?

Antwort: Ja. Sobald das Ergebnis des KI-Systems in der EU genutzt wird, gilt der AI Act. Wenn Sie US-Modelle via API einbinden, werden Sie oft zum "Deployer" mit entsprechenden Pflichten.

Frage: Wer haftet, wenn die KI einen Fehler macht – der Hersteller oder wir als Nutzer?

Antwort: Das hängt vom Fehler ab. Liegt ein technischer Defekt vor, haftet meist der Hersteller. Haben Sie das System jedoch falsch bedient, die Datenqualität vernachlässigt oder die menschliche Aufsicht missachtet, haften Sie.

Frage: Brauche ich eine spezielle Software für die Compliance?

Antwort: Angesichts der Komplexität und der Dokumentationspflichten ist eine manuelle Verwaltung via Excel kaum noch darstellbar. Viele Unternehmen suchen daher gezielt nach Lösungen – EU AI Act Compliance Software hilft dabei, den Prozess zu automatisieren und rechtssicher zu gestalten.

Niklas Hanitsch

Als Jurist mit langjähriger Erfahrung als Anwalt für Datenschutz und IT-Recht kennt Niklas die Antwort auf so gut wie jede Frage im Bereich der digitalen Compliance. Er war in der Vergangenheit unter anderem für Taylor Wessing und Amazon tätig. Als Gründer und Geschäftsführer von SECJUR, lässt Niklas sein Wissen vor allem in die Produktentwicklung unserer Compliance-Automatisierungsplattform einfließen.

Über SECJUR

SECJUR steht für eine Welt, in der Unternehmen immer compliant sind, aber nie an Compliance denken müssen. Mit dem Digital Compliance Office automatisieren Unternehmen aufwändige Arbeitsschritte und erlangen Compliance-Standards wie DSGVO, ISO 27001 oder TISAX® bis zu 50% schneller.

Compliance, completed

Automatisieren Sie Ihre Compliance Prozesse mit dem Digital Compliance Office

Mehr erfahren

Frequently asked questions

Everything you need to know about the product and billing.

Weiterlesen

June 2, 2023
5 min
FLoC: Was ist Google FLoC und wie nutzt man es?

Die Ankündigung, dass Google zukünftig auf den Einsatz von Third-Party-Cookies verzichten wird, hat für große Aufmerksamkeit gesorgt. Insbesondere die Big Data-Skeptiker werden sich hierüber freuen, haben doch Cookies nicht unbedingt einen guten Ruf. Das Sammeln von Daten im großen Stil und insbesondere die Verknüpfung der verschiedenen Datensätze, nicht immer konform mit dem europäischen Datenschutzrecht, kann eine folgenreiche individuelle Profilbildung ermöglichen.

Lesen
January 5, 2026
5 Minuten
EU AI Act: Datenherkunft als Schlüssel zur KI-Compliance

Viele KI-Systeme scheitern nicht an der Technik, sondern an fehlender Transparenz ihrer Trainingsdaten. Dieser Leitfaden zeigt, warum der Nachweis der Datenherkunft (Data Provenance) unter dem EU AI Act zur Pflicht wird und wie Sie komplexe Datenlieferketten rechtssicher dokumentieren. Erfahren Sie, wie Sie Risiken, Bias und Haftungsfallen vermeiden und Ihre KI gleichzeitig robuster und vertrauenswürdiger machen.

Lesen
November 5, 2025
5 Minuten
ISO 27001: Kontrolle externer Prozesse in der Lieferkette

Viele Unternehmen lagern zentrale Prozesse an externe Dienstleister aus, doch die Verantwortung für Informationssicherheit bleibt immer intern. Dieser Leitfaden zeigt praxisnah, wie Sie mit ISO 27001 Kapitel 8.4 Outsourcing- und Lieferkettenrisiken systematisch steuern, Lieferanten wirksam kontrollieren und Sicherheitslücken in der Lieferkette vermeiden. So machen Sie externe Abhängigkeiten zu einem kontrollierten Bestandteil Ihrer Compliance-Strategie.

Lesen
TO TOP