Der Artificial Intelligence Act (AI Act) der EU hat das Ziel, die Verwendung von Künstlicher Intelligenz (KI) in Europa sicherer und verantwortungsvoller zu gestalten. Es sollen klare Regeln für Unternehmen festgelegt werden, die KI-Anwendungen entwickeln oder einsetzen, um so sicherzustellen, dass ihre Produkte und Dienste den hohen ethischen und rechtlichen Standards der EU entsprechen.
KI-Programme, die vielleicht bald eine Masterarbeit schreiben können (ChatGPT), begeistern und überraschen Kunden. Die Anwendungen betreffen aber auch sensible Felder. Etwa bei der Kreditvergabe oder Jobeinstellungen können automatische Entscheidungen – die nicht einsehbar sind – zu Fehlern führen.
AI Act: Newcomer am Regulierungshorizont
Bislang konzentrierten sich staatliche Maßnahmen auf Investitionen oder freiwillige Richtlinien. Hiermit bricht der AI Act und will den Einsatz von KI-Systemen reglementieren. Dementsprechend hoch sind auch die Anforderungen und der Umfang: Ein erster Entwurf der EU umfasst 125 Seiten. Die DSGVO machte hierbei vor, dass die EU in der Lage ist, einen „Goldstandard“ zu schaffen. Dies soll auch mit dem AI Act geschaffen werden.
Der AI Act selbst ist noch nicht verabschiedet und befindet sich im Gesetzgebungsverfahren. Die finale Fassung des Gesetzes ist bisher noch unklar. So verfolgt der AI Act zwar einen risikobasierten Regelungsansatz. Das heißt, dass KI-Systeme in vier Kategorien – minimales, geringes, hohes oder unannehmbares Risiko – eingeordnet werden und dementsprechend geringere oder strengere Anforderungen gesetzt werden. Diese reichen von einer Registrierung des Systems, über Dokumentationspflichten bis hinzu einemausgefeilten Riskmanagement. Systeme mit unannehmbarem Risiko, wie etwa eine biometrische Fernidentifizierung von Personen, sollen ganz verboten werden. Welche Systeme nun in die jeweiligen Kategorien fallen, wird aber derzeit noch diskutiert.
Die widerstreitenden Interessen sind hierbei vielfältig. NGO’s wie algorithmwatch warnen davor, dass bisher noch zu viele Schlupflöcher für staatliche Überwachungsmaßnahmen bestehen und das Gesetz noch einmal nachgeschärft werden müsste. Kritik kommt auch aus der anderen Stoßrichtung: Wirtschaftsvertreter bemängeln eine zu breite Regulierung. So seien auch Produkte erfasst, die nur wenig mit AI zu tun haben.
Wie sich das Spannungsfeld auflöst, bleibt abzuwarten. Unternehmen empfehlen wir jetzt schon, ihre Prozesse mit KI-System zu überprüfen und auf die kommende Regulierung vorzubereiten. Dies könnte mittels einer Richtlinie zum Einsatz der AI oder ein Code of Conduct geschehen.
Der Artificial Intelligence Act (AI Act) der EU hat das Ziel, die Verwendung von Künstlicher Intelligenz (KI) in Europa sicherer und verantwortungsvoller zu gestalten. Es sollen klare Regeln für Unternehmen festgelegt werden, die KI-Anwendungen entwickeln oder einsetzen, um so sicherzustellen, dass ihre Produkte und Dienste den hohen ethischen und rechtlichen Standards der EU entsprechen.
KI-Programme, die vielleicht bald eine Masterarbeit schreiben können (ChatGPT), begeistern und überraschen Kunden. Die Anwendungen betreffen aber auch sensible Felder. Etwa bei der Kreditvergabe oder Jobeinstellungen können automatische Entscheidungen – die nicht einsehbar sind – zu Fehlern führen.