Beitrag teilen
HOME
/
blog
/
EU AI Act: Datenintegrität im KI-Lebenszyklus richtig umsetzen

EU AI Act: Datenintegrität im KI-Lebenszyklus richtig umsetzen

Niklas Hanitsch

Volljurist und Compliance-Experte

January 5, 2026

5 Minuten

Als Jurist mit langjähriger Erfahrung als Anwalt für Datenschutz und IT-Recht kennt Niklas die Antwort auf so gut wie jede Frage im Bereich der digitalen Compliance. Er war in der Vergangenheit unter anderem für Taylor Wessing und Amazon tätig. Als Gründer und Geschäftsführer von SECJUR, lässt Niklas sein Wissen vor allem in die Produktentwicklung unserer Compliance-Automatisierungsplattform einfließen.

Key Takeaways

Datenintegrität ist die Grundlage jeder AI-Act-konformen KI.

Ohne technische Nachweise ist Compliance nicht belastbar.

Automatisierte MLOps sichern Daten über den gesamten Lebenszyklus.

Vertrauenswürdige KI entsteht durch kontinuierliche Integritätskontrollen.

Stellen Sie sich vor, Sie bauen ein Haus. Sie verwenden die besten Ziegel, den stärksten Beton und hochwertiges Holz. Doch während der Bauphase tauscht jemand heimlich, in der Dunkelheit der Nacht, zehn Prozent Ihrer Stahlträger gegen billiges Imitat aus. Äußerlich sieht das Haus perfekt aus. Aber beim ersten Sturm stürzt es ein.

In der Welt der Künstlichen Intelligenz ist dies keine Parabel, sondern ein reales Risiko. Man nennt es „Data Poisoning“ oder Datenmanipulation.

Viele Unternehmen konzentrieren sich bei der Vorbereitung auf den EU AI Act ausschließlich auf das fertige Modell oder die Dokumentation. Doch Artikel 10 der Verordnung zielt auf etwas Tieferes ab: das Fundament. Es geht nicht nur darum, dass Ihre Daten zum Zeitpunkt X „sauber“ sind, sondern dass Sie technisch garantieren können, dass sie über den gesamten Lebenszyklus hinweg – vom Training bis zum Betrieb – unverändert und korrekt geblieben sind.

In diesem Beitrag tauchen wir tief in die technischen Ansätze der kontinuierlichen Datenintegritätsprüfung ein. Wir lassen den juristischen Jargon hinter uns und schauen uns an, wie Sie Manipulationen verhindern und Compliance nicht nur behaupten, sondern beweisen können.

Das Fundament: Was Artikel 10 wirklich verlangt

Der EU AI Act (KI-Verordnung) ist mehr als eine Checkliste; er ist ein Rahmenwerk für Vertrauen. Speziell für Hochrisiko-KI-Systeme stellt Artikel 10 strenge Anforderungen an die Daten-Governance.

Oft wird dies missverstanden als reine „Datenqualität“ (sind keine Fehler enthalten?). Doch der Gesetzgeber verlangt implizit mehr: Datenintegrität. Das bedeutet, dass die Datensätze für Training, Validierung und Tests nicht manipuliert wurden – weder böswillig durch Angreifer noch versehentlich durch interne Prozesse.

Wenn Sie nicht nachweisen können, woher Ihre Daten kommen, wer sie wann berührt hat und dass sie unverändert sind, stehen Sie im Audit auf wackligem Boden.

Diese Illustration macht das abstrakte Konzept der kontinuierlichen Datenintegritätsprüfung greifbar, indem sie zeigt, wie Daten in allen Phasen des KI-Lebenszyklus durch technische und rechtliche Anforderungen des EU KI Acts geschützt werden.

Warum Momentaufnahmen nicht reichen

Klassische Audits verlassen sich oft auf Stichproben zu einem bestimmten Zeitpunkt. In modernen CI/CD-Pipelines (Continuous Integration/Continuous Deployment), wo KI-Modelle ständig neu trainiert werden, ist eine einmalige Prüfung wertlos. Die Integritätsprüfung muss, genau wie die Softwareentwicklung, kontinuierlich erfolgen.

Wer hierfür keine technische Lösung parat hat, riskiert nicht nur Bußgelder, sondern auch die Sicherheit seines Systems. Wer tiefer in die regulatorischen Grundlagen eintauchen möchte, findet in unserem Überblick zum EU AI Act weitere Details zu den gesetzlichen Rahmenbedingungen.

Die technische Umsetzung: Wie man Unveränderbarkeit garantiert

Wie stellen wir also sicher, dass die Daten, die wir heute nutzen, dieselben sind wie gestern? Die Antwort liegt in einer Kombination aus kryptographischen Methoden und modernem Datenmanagement.

1. Kryptographisches Hashing (Der digitale Fingerabdruck)

Der effektivste Weg, Datenintegrität zu prüfen, ist das Hashing. Dabei wird für jeden Datensatz (oder Chunks von Daten) ein eindeutiger Hash-Wert (ein digitaler Fingerabdruck) erstellt.

  • Vor dem Training: Ein Hash des Trainingsdatensatzes wird erzeugt und sicher gespeichert.
  • Während des Audits: Der Datensatz wird erneut gehasht. Stimmt der neue Hash nicht exakt mit dem gespeicherten überein, wurde mindestens ein Bit verändert.

Für große Datenmengen nutzen fortschrittliche Frameworks sogenannte Merkle Trees. Diese ermöglichen es, die Integrität riesiger Datenbanken zu überprüfen, ohne jedes Mal alle Daten komplett lesen zu müssen.

2. Immutable Storage und Backups

Um Manipulationen vorzubeugen, sollten Rohdaten und Logs in einem „Write Once, Read Many“ (WORM) Speicher abgelegt werden. Hier kommt das Konzept des immutable backup ins Spiel. Was im Kontext der Cybersicherheit gegen Ransomware schützt, dient im KI-Kontext als Beweis der Unverfälschtheit Ihrer Trainingsbasis gegenüber Auditoren.

3. Data Lineage (Der Herkunftsnachweis)

Datenintegrität bedeutet auch Kontext. Tools zur Data Lineage zeichnen automatisch auf:

  • Woher kamen die Daten?
  • Durch welche Transformations-Pipelines sind sie geflossen?
  • Welches Modell wurde exakt mit welcher Version der Daten trainiert?

Dies ist entscheidend, um die allgemeine AI-Datenqualität nicht nur zu behaupten, sondern den gesamten Lebenszyklus transparent zu machen.

Dieser Prozessdiagramm führt Schritt für Schritt durch die technischen Maßnahmen zur kontinuierlichen Prüfung der Datenintegrität im KI-Daten-Lebenszyklus und zeigt, wie Manipulationsrisiken systematisch minimiert werden.

Integration in den Workflow: MLOps trifft Compliance

Die größte Hürde für Unternehmen ist oft die operative Umsetzung. Niemand möchte manuelle Excel-Listen führen, um Datenhashes zu vergleichen. Die Lösung liegt in der Automatisierung innerhalb der MLOps-Pipeline.

Automatisierte Validierungstore (Quality Gates)

In einer robusten Architektur durchlaufen Daten verschiedene "Tore". Bevor Daten vom "Ingestion Layer" (Eingang) in den "Training Layer" übergehen, prüft ein automatisiertes Skript:

  1. Stimmen die Hash-Werte noch?
  2. Liegen die statistischen Verteilungen im Normbereich (Anomaly Detection)?
  3. Ist die Metadaten-Historie vollständig?

Schlägt einer dieser Tests fehl, wird die Pipeline gestoppt. Das verhindert, dass ein KI-Modell auf korrumpierten Daten lernt – ein Fehler, der später nur schwer zu korrigieren ist. Dies ist besonders wichtig, wenn Sie verschiedene EU AI Act Risikoklassen in Ihrem Portfolio verwalten, da Hochrisiko-Systeme hier keinerlei Toleranz erlauben.

Informationssicherheit als Basis

Datenintegrität ist untrennbar mit der allgemeinen Informationssicherheit verbunden. Sie können die besten Hashing-Algorithmen verwenden, aber wenn die Zugriffskontrollen auf Ihre Datenbanken lax sind, ist das System verwundbar.

Ein ganzheitliches Konzept für Informationssicherheit (nach ISO 27001 oder TISAX) bildet das organisatorische Dach. Es regelt, wer überhaupt Schreibrechte auf Trainingsdaten hat und stellt sicher, dass Manipulationen nicht nur technisch erkannt, sondern auch organisatorisch erschwert werden.

Checkliste: Ist Ihre KI-Datenpipeline bereit?

Um die Lücke zwischen Theorie und Praxis zu schließen, hilft ein Blick auf die konkreten technischen Anforderungen. Ein funktionierendes Qualitätsmanagementsystem (QMS) für KI muss diese Punkte abdecken.

  • Versionierung: Sind Trainings-, Validierungs- und Testdaten sauber versioniert (z.B. mittels DVC - Data Version Control)?
  • Unveränderlichkeit: Werden kritische Logs und Rohdaten unveränderlich gespeichert?
  • Monitoring: Gibt es Alerts, wenn sich die statistischen Eigenschaften der Daten unerwartet ändern (Data Drift)?
  • Zugriffskontrolle: Ist dokumentiert, wer wann Zugriff auf sensible Datensätze hatte?

Die Integration dieser Punkte in Ihr Qualitätsmanagement und ISO 9001 Compliance ist der sicherste Weg, um Audits entspannt entgegenzusehen.

Diese Infografik verankert die wichtigsten technischen Komponenten, die eine kontinuierliche Datenintegrität ermöglichen, als visuellen Merker und zeigt ihre zentrale Rolle für die Einhaltung des EU KI Acts.

Fazit: Compliance als Qualitätsmerkmal

Die Anforderungen des EU AI Act zur Datenintegrität mögen auf den ersten Blick wie eine bürokratische Hürde wirken. Doch technisch betrachtet zwingen sie Unternehmen zu etwas sehr Sinnvollem: Hygiene in der Datenhaltung.

Eine kontinuierliche Datenintegritätsprüfung schützt Sie nicht nur vor Bußgeldern. Sie schützt Ihr wertvollstes Asset – Ihr KI-Modell – vor schleichender Verschlechterung und Manipulation. Indem Sie technische Frameworks nutzen, die Sicherheit und Compliance automatisieren, verwandeln Sie eine gesetzliche Pflicht in einen Wettbewerbsvorteil: Vertrauenswürdige KI, auf die sich Ihre Kunden verlassen können.

Häufig gestellte Fragen (FAQ)

Gilt die Pflicht zur Datenintegrität für alle KI-Systeme?

Nein, die strengen Anforderungen des Artikel 10 richten sich primär an Hochrisiko-KI-Systeme. Für Systeme mit geringem Risiko (z.B. Spam-Filter) gelten weniger strikte Transparenzpflichten. Es ist jedoch eine Best Practice, Integritätsprüfungen generell zu etablieren, um die Modellleistung zu sichern. Mehr zu den Kategorien finden Sie in unserer Übersicht zur Klassifizierung von Hochrisiko KI.

Was ist der Unterschied zwischen Data Drift und Integritätsverlust?

Data Drift ist ein natürliches Phänomen, bei dem sich die Daten in der realen Welt langsam ändern (z.B. ändert sich das Kaufverhalten von Kunden).Integritätsverlust bedeutet, dass die Daten technisch verändert, beschädigt oder manipuliert wurden. Die kontinuierliche Prüfung muss beides unterscheiden können.

Kann ich das manuell machen?

Theoretisch ja, praktisch nein. Bei den Datenmengen, die für modernes KI-Training nötig sind, ist eine manuelle Überprüfung fehleranfällig und unwirtschaftlich. Automatisierte Compliance-Tools sind hier der Industriestandard.

Niklas Hanitsch

Als Jurist mit langjähriger Erfahrung als Anwalt für Datenschutz und IT-Recht kennt Niklas die Antwort auf so gut wie jede Frage im Bereich der digitalen Compliance. Er war in der Vergangenheit unter anderem für Taylor Wessing und Amazon tätig. Als Gründer und Geschäftsführer von SECJUR, lässt Niklas sein Wissen vor allem in die Produktentwicklung unserer Compliance-Automatisierungsplattform einfließen.

Über SECJUR

SECJUR steht für eine Welt, in der Unternehmen immer compliant sind, aber nie an Compliance denken müssen. Mit dem Digital Compliance Office automatisieren Unternehmen aufwändige Arbeitsschritte und erlangen Compliance-Standards wie DSGVO, ISO 27001 oder TISAX® bis zu 50% schneller.

Compliance, completed

Automatisieren Sie Ihre Compliance Prozesse mit dem Digital Compliance Office

Mehr erfahren

Frequently asked questions

Everything you need to know about the product and billing.

Weiterlesen

October 25, 2023
6 min
ISO 27001 Annex A.9 – Access Management leicht gemacht

Die Umsetzung von Access Management nach ISO 27001 Annex A.9 kann eine echte Herausforderung sein. Regulierung und Überwachung von Zugriffen sind unerlässlich, um Daten und Informationen zu schützen. In diesem Artikel erfahren Sie, wie die Partnerschaft zwischen SECJUR und Cakewalk Unternehmen dabei unterstützt, die Anforderungen dieses ISO-Annex effizient zu erfüllen. Entdecken Sie die Bedeutung von Annex A.9, seine Ziele und die verschiedenen Zugangskontrollmethoden. Erfahren Sie, wie Cakewalks intelligente Lösungen und SECJURs Expertise die nahtlose Integration der Zugriffsverwaltung in ein Informationssicherheitsmanagementsystem ermöglichen.

Lesen
November 26, 2025
5 Minuten
NIS2-Audit: Kriterien für Governance und Management

Mit NIS2 wird die Management-Verantwortung für Cybersicherheit erstmals konkret prüf- und haftungsrelevant. Dieser Leitfaden zeigt, welche Governance-Nachweise Auditoren wirklich verlangen, von Genehmigung über Überwachung bis Schulung der Geschäftsleitung. Erfahren Sie praxisnah, wie Sie sich mit klaren Protokollen, KPIs und Management-Reviews auditsicher aufstellen. So verwandeln Sie Haftungsrisiken in eine belastbare NIS2-Governance-Struktur.

Lesen
January 6, 2026
5 Minuten
EU AI Act: Haftung bei KI-Fehlern und Kaskadenhaftung

Mit dem EU AI Act endet die Illusion, dass nur Hersteller für KI-Fehler haften. Dieser Leitfaden erklärt praxisnah, wie Kaskadenhaftung und Mehrfachtäterschaft funktionieren, warum auch Betreiber und Händler ins Visier geraten und wann sich Verantwortung entlang der KI-Wertschöpfungskette verschiebt. Erfahren Sie, wie Sie Haftungsrisiken früh erkennen, dokumentieren und durch saubere Governance sowie Compliance-Automatisierung wirksam begrenzen.

Lesen
TO TOP