Beitrag teilen
HOME
/
blog
/
EU AI Act: Qualitätssicherung bei Datenannotation

EU AI Act: Qualitätssicherung bei Datenannotation

Niklas Hanitsch

Volljurist und Compliance-Experte

January 6, 2026

5 Minuten

Als Jurist mit langjähriger Erfahrung als Anwalt für Datenschutz und IT-Recht kennt Niklas die Antwort auf so gut wie jede Frage im Bereich der digitalen Compliance. Er war in der Vergangenheit unter anderem für Taylor Wessing und Amazon tätig. Als Gründer und Geschäftsführer von SECJUR, lässt Niklas sein Wissen vor allem in die Produktentwicklung unserer Compliance-Automatisierungsplattform einfließen.

Key Takeaways

Hochwertige Datenannotation ist die Grundlage für KI-Act-konforme Trainingsdaten.

Hochwertige Datenannotation ist die Grundlage für KI-Act-konforme Trainingsdaten.

Unklare Labeling-Regeln erzeugen systematischen Bias in KI-Modellen.

Gute Annotation schützt Unternehmen vor rechtlichen und ethischen Risiken.

Stellen Sie sich vor, Sie entwickeln eine KI für das Recruiting. Das System ist effizient, schnell – und sortiert systematisch weibliche Bewerberinnen aus, weil die Trainingsdaten aus einer Zeit stammten, in der die Branche männerdominiert war.

Vor wenigen Jahren war das „nur“ ein PR-Desaster und ein ethisches Problem. Mit dem Inkrafttreten des EU AI Acts wird daraus ein rechtliches Risiko, das empfindliche Strafen nach sich ziehen kann.

Für Unternehmen, die KI entwickeln oder einsetzen, hat sich die Spielregel geändert: Datenqualität ist nicht mehr nur eine technische Metrik, sondern eine Compliance-Anforderung. Doch wie übersetzt man abstrakte Gesetzestexte in praktische Arbeitsschritte für Annotatoren? Wie stellt man sicher, dass ein Datensatz „frei von Fehlern“ und „repräsentativ“ ist?

In diesem Leitfaden tauchen wir tief in den Maschinenraum der KI-Entwicklung ein. Wir zeigen Ihnen, wie Sie Ihre Daten-Annotationsprozesse so gestalten, dass sie nicht nur leistungsstarke Modelle hervorbringen, sondern auch den strengen Anforderungen des EU AI Acts standhalten.

Warum Datenannotationsqualität im Zeitalter des KI Act entscheidend ist

Lange Zeit galt in der KI-Entwicklung das Prinzip „Garbage In, Garbage Out“ (Schlechte Daten rein, schlechte Ergebnisse raus). Unter dem neuen EU-Regelwerk wandelt sich dieses Prinzip zu „Garbage In, Fines Out“.

Artikel 10 des AI Acts legt die Messlatte für sogenannte Hochrisiko-KI-Systeme extrem hoch. Trainings-, Validierungs- und Testdatensätze müssen strengen Qualitätskriterien genügen. Es reicht nicht mehr, Daten einfach nur zu sammeln und zu labeln. Sie müssen nachweisen können, wie diese Daten entstanden sind, wer sie annotiert hat und welche Maßnahmen ergriffen wurden, um Bias (Voreingenommenheit) zu verhindern.

Das Ziel ist klar: KI-Systeme sollen fair, transparent und sicher sein. Der Weg dorthin führt zwangsläufig über den Annotationsprozess.

Grundlagen: Datenannotation & der EU KI Act für Einsteiger

Bevor wir in die Praxis einsteigen, lassen Sie uns die Begriffe klären. Datenannotation ist der Prozess, bei dem Rohdaten (Bilder, Texte, Audio) mit Labels versehen werden, damit eine Maschine Muster erkennen kann. Ein Mensch markiert beispielsweise auf einem Bild alle Fußgänger, damit ein autonomes Fahrzeug lernt, diese zu erkennen.

Der EU AI Act fordert in Artikel 10 Absatz 3 spezifisch, dass Trainingsdatensätze „relevant, repräsentativ, fehlerfrei und vollständig“ sein müssen.

Das klingt auf dem Papier gut, wirft aber in der Praxis Fragen auf:

  • Was bedeutet „fehlerfrei“ in einer subjektiven Welt?
  • Wie misst man Repräsentativität?
  • Wie dokumentiert man diesen Prozess revisionssicher?

Aufbau: Qualitätssicherung in der Datenannotation – KI Act konform

Um Konformität zu erreichen, müssen wir den Annotationsprozess professionalisieren. Es geht weg von „schnell und schmutzig“ hin zu „strukturiert und dokumentiert“. Hier sind die wichtigsten Bausteine für eine AI-Datenqualität, die Auditoren überzeugt.

1. Das Fundament: Klare Annotationsrichtlinien (Guidelines)

Der häufigste Grund für schlechte Datenqualität ist nicht Inkompetenz, sondern Ambiguität. Wenn zwei Annotatoren dasselbe Bild unterschiedlich interpretieren, liegt das Problem meist in der Anleitung.

Für den AI Act müssen Ihre Guidelines:

  • Objektiv sein: Definieren Sie klare Kriterien. Nicht „Markieren Sie große Autos“, sondern „Markieren Sie Fahrzeuge über 2 Meter Höhe“.
  • Randfälle abdecken: Was passiert, wenn ein Objekt verdeckt ist? Die Richtlinien müssen diese „Edge Cases“ explizit regeln.
  • Bias adressieren: Weisen Sie explizit auf potenzielle Fallen hin (z.B. „Achten Sie darauf, nicht nur Personen heller Hautfarbe als 'Manager' zu labeln“).

2. Der Mensch im Loop: Schulung und Management

Menschlicher Bias ist unvermeidbar, aber managebar. Ein divers aufgestelltes Annotationsteam ist oft der beste Schutz gegen unbewusste Voreingenommenheit. Wenn Ihr Team nur aus einer demografischen Gruppe besteht, werden deren blinde Flecken Teil Ihres Datensatzes.

Schulen Sie Ihr Team nicht nur auf die Tools, sondern sensibilisieren Sie es für den Kontext der Daten. Annotatoren müssen verstehen, warum ihre Entscheidung ethische Konsequenzen haben kann.

3. Der Prozess: Von der Annotation zur Validierung

Qualitätssicherung (QA) darf kein nachträglicher Gedanke sein. Sie muss in den Workflow integriert werden.

Ein KI Act-konformer Workflow nutzt oft das „Human-in-the-Loop“-Prinzip mit mehreren Sicherheitsnetzen:

  • Konsens-Annotation: Kritische Datenpunkte werden von mehreren Personen unabhängig annotiert. Nur bei Übereinstimmung gilt das Label als korrekt.
  • Gold Standard Sets: Annotatoren müssen regelmäßig Testdatensätze bearbeiten, deren „richtige“ Antwort bereits feststeht, um ihre Genauigkeit zu prüfen.
  • Automatisierte Vorprüfung: Einsatz von Skripten, die offensichtliche Fehler (z.B. leere Labels, unmögliche Geometrien) sofort flaggen.

4. Bias-Erkennung und -Minderung

Der AI Act verlangt explizit Maßnahmen zur Prüfung auf mögliche Verzerrungen (Bias).

  • Datensatz-Balancing: Analysieren Sie die Verteilung der Klassen in Ihren Daten. Haben Sie genügend Beispiele für alle Untergruppen (z.B. Geschlecht, Alter, Akzent, Beleuchtungssituationen)?
  • Aktive Korrektur: Wenn Sie ein Ungleichgewicht feststellen, müssen Sie gezielt Daten nacherheben oder Annotationskampagnen starten, um diese Lücken zu schließen.

Meisterschaft: Fortgeschrittene Aspekte & Compliance

Wenn die Prozesse stehen, folgt der Schritt, der für Auditoren am wichtigsten ist: Der Nachweis. Sie können den besten Prozess der Welt haben – wenn er nicht dokumentiert ist, existiert er für den Gesetzgeber nicht.

KI Act-konforme KPIs

Verlassen Sie sich nicht nur auf einfache „Accuracy“. Um die Anforderungen an Fehlerfreiheit und Vollständigkeit zu erfüllen, benötigen Sie differenzierte Metriken.

  • Inter-Annotator Agreement (IAA): Ein statistisches Maß (z.B. Cohen's Kappa), das angibt, wie einig sich verschiedene Annotatoren sind. Ein niedriger IAA-Wert deutet oft auf schlechte Guidelines hin.
  • Klassen-Balance: Metriken, die zeigen, ob bestimmte Klassen unterrepräsentiert sind.
  • Fehlerquote pro Annotator: Hilft dabei, Schulungsbedarf zu identifizieren.

Dokumentation als Schutzschild

Ihre technische Dokumentation muss die gesamte "Data Lineage" nacherzählen können. Woher kommen die Daten? Welche Annotation-Tools wurden genutzt? Welche QA-Schritte wurden durchgeführt?

Für viele Unternehmen ist die manuelle Pflege dieser Dokumentation eine massive Hürde. Hier kann spezialisierte EU AI Act Compliance Software helfen, die diese Nachweise automatisiert und zentralisiert verwaltet, anstatt sie in unzähligen Excel-Tabellen zu vergraben.

Umgang mit sensiblen Daten

Artikel 10 Absatz 5 erlaubt unter strengen Bedingungen die Verarbeitung sensibler personenbezogener Daten (z.B. ethnische Herkunft), wenn dies ausschließlich zur Bias-Erkennung und -Korrektur notwendig ist. Dies ist eine Gratwanderung zwischen AI Act und DSGVO. Hier sind Pseudonymisierung und strenge Zugriffskontrollen ("Need-to-know"-Prinzip) bei der Annotation Pflicht.

Handlung: Ihr Weg zur KI Act-Konformität

Die Anforderungen wirken auf den ersten Blick einschüchternd. Doch sehen Sie es so: Bessere Datenannotationsprozesse führen nicht nur zu Compliance, sondern zu besseren, robusteren Produkten.

Beginnen Sie mit einer Bestandsaufnahme:

  1. Review der Guidelines: Sind sie objektiv und verständlich?
  2. Bias-Audit: Kennen Sie die blinden Flecken in Ihren aktuellen Datensätzen?
  3. Tooling: Nutzt Ihr Team Werkzeuge, die QA-Metriken automatisch erfassen?

Die Sicherstellung der Datenqualität ist ein fortlaufender Prozess, kein einmaliges Projekt. Mit den richtigen Strukturen wird aus der regulatorischen Hürde ein Qualitätsmerkmal, das Vertrauen bei Ihren Kunden schafft.

FAQ: Häufige Fragen zur Datenannotation im KI Act

Muss mein Datensatz zu 100% fehlerfrei sein?

Der Begriff „fehlerfrei“ im Gesetzestext sorgt oft für Verwirrung. In der Praxis ist absolute Fehlerfreiheit bei komplexen Daten kaum möglich. Der Gesetzgeber erwartet jedoch, dass Sie Fehler kennen, dokumentieren und Maßnahmen ergriffen haben, um die Fehlerquote so weit wie möglich zu senken. Es geht um Sorgfaltspflicht, nicht um übermenschliche Perfektion.

Gilt das auch für KI-Systeme, die kein "Hochrisiko" sind?

Artikel 10 bezieht sich spezifisch auf Hochrisiko-KI-Systeme (z.B. in HR, kritischer Infrastruktur, Bildung). Für andere Systeme gelten weniger strenge Regeln, aber: Die DSGVO gilt immer, und gute Datenqualität ist auch für nicht-kritische KI der Schlüssel zum Erfolg. Transparenz ist auch hier ein Wettbewerbsvorteil.

Wie dokumentiere ich Bias-Mitigation?

Sie sollten protokollieren, welche Hypothesen zu möglichem Bias Sie aufgestellt haben (z.B. "Unser Datensatz könnte Frauen benachteiligen"), wie Sie dies getestet haben (Statistische Analyse der Trainingsdaten) und welche Maßnahmen Sie ergriffen haben (z.B. Nachsammlung von Daten unterrepräsentierter Gruppen).

Kann ich externe Annotations-Dienstleister nutzen?

Ja, aber Sie bleiben als Anbieter des KI-Systems verantwortlich. Sie müssen sicherstellen, dass auch der Dienstleister nach Ihren Guidelines und Qualitätsstandards arbeitet. Dies sollte vertraglich und durch Audits abgesichert sein.

Niklas Hanitsch

Als Jurist mit langjähriger Erfahrung als Anwalt für Datenschutz und IT-Recht kennt Niklas die Antwort auf so gut wie jede Frage im Bereich der digitalen Compliance. Er war in der Vergangenheit unter anderem für Taylor Wessing und Amazon tätig. Als Gründer und Geschäftsführer von SECJUR, lässt Niklas sein Wissen vor allem in die Produktentwicklung unserer Compliance-Automatisierungsplattform einfließen.

Über SECJUR

SECJUR steht für eine Welt, in der Unternehmen immer compliant sind, aber nie an Compliance denken müssen. Mit dem Digital Compliance Office automatisieren Unternehmen aufwändige Arbeitsschritte und erlangen Compliance-Standards wie DSGVO, ISO 27001 oder TISAX® bis zu 50% schneller.

Compliance, completed

Automatisieren Sie Ihre Compliance Prozesse mit dem Digital Compliance Office

Mehr erfahren

Frequently asked questions

Everything you need to know about the product and billing.

Weiterlesen

December 1, 2025
5 Minuten
NIS2: Risikomanagement erfolgreich umsetzen

Viele Unternehmen stehen vor der Herausforderung, die komplexen Anforderungen des NIS2-Risikomanagements praxisnah umzusetzen. Dieser Leitfaden zeigt Ihnen in 7 klaren Schritten, wie Sie NIS2 effizient implementieren, Haftungsrisiken für die Geschäftsführung minimieren und Ihre Cybersicherheit nachhaltig stärken. So wird Compliance vom Pflichtprogramm zum echten Wettbewerbsvorteil.

Lesen
November 26, 2025
5 Minuten
NIS2: Wie baut das Management eine Sicherheitskultur auf?

Viele Unternehmen investieren in die Technik, scheitern aber an der Sicherheitskultur. Dieser Leitfaden zeigt, wie das Management unter NIS2 eine wirksame Sicherheitskultur aufbaut, persönliche Haftung minimiert und Mitarbeiter zur stärksten Verteidigungslinie macht. Praxisnah erfahren Sie, wie Schulung, Kommunikation und Vorbildfunktion die Cyber-Resilienz Ihres Unternehmens nachhaltig stärken

Lesen
December 12, 2025
5 Minuten
EU AI Act: Post-Market-Monitoring als Erfolgsfaktor für KI

Der EU AI Act endet nicht mit der CE-Kennzeichnung: Für Hochrisiko-KI beginnt danach das verpflichtende Post-Market-Monitoring. Erfahren Sie, warum kontinuierliche Überwachung, Incident-Meldungen und der Umgang mit Data Drift entscheidend sind, um Haftungsrisiken zu vermeiden und langfristige Compliance sicherzustellen. Dieser Leitfaden zeigt praxisnah, wie Sie Monitoring-Prozesse aufbauen, Meldepflichten erfüllen und Vertrauen in Ihre KI-Systeme nachhaltig stärken.

Lesen
TO TOP