Neue Spielregeln für KI: Der EU AI Act erklärt

Künstliche Intelligenz (KI) weist in der Auswertung von Daten, in der Automatisierung von wiederkehrenden Prozessen und in einigen anderen Domänen große Potenziale auf und kann zu signifikanten Kostenersparnissen oder Wertsteigerungen führen. Allerdings sind viele KI-Systeme heute noch Blackbox-Anwendungen, das heißt der zugrundeliegende Lösungs- und Entscheidungsweg ist kaum oder gar nicht nachvollziehbar. Insbesondere in Vorgängen mit sensiblen Daten oder in sicherheitskritischen Prozessen kann das zu schwerwiegenden Problemen führen, falls die KI Fehler macht (z.B. Unfälle beim autonomen Fahren). Damit Nutzer sowie Anwender keinen vermeidbaren Gefahren ausgesetzt werden, bedarf es hier einer Regulierung durch den Gesetzgeber.

This image was generated with the assistance of AI.

Vor diesem Hintergrund hat die EU als Teil ihrer digitalen Strategie schon im April 2021 einen ersten EU-Rechtsrahmen zu KI veröffentlicht, den EU AI Act. Damit gilt er weltweit als erster umfassender Rechtsrahmen zum Thema KI. Am 14.06.2023 haben die EU-Abgeordneten ihre Verhandlungsposition eingenommen, womit die Gespräche mit EU-Mitgliedsstaaten zur finalen Ausgestaltung des Gesetzes beginnen. Ziel ist es, bessere Bedingungen für die Entwicklung und Nutzung von KI-Systemen zu schaffen und die Einführung von menschenzentrierter und vertrauenswürdiger KI zu fördern. Nach aktuellem Stand ist dieses Gesetz noch nicht rechtsgültig, könnte jedoch schon im Jahr 2024 in Kraft treten. In Deutschland ist auf nationaler Ebene noch kein umfassendes Gesetz zur Regulierung von KI verabschiedet wurden, dennoch kann dem Thema eine hohe Bedeutung zugesprochen werden, wie an der eigenen KI-Strategie der Bundesregierung zu erkennen ist.

Damit Sie als Unternehmen bestmöglich auf künftige Regulierungen vorbereitet sind, stellen wir Ihnen in diesem Beitrag kurz und knapp die wesentlichen Inhalte des EU AI Act bereit. Dieser Beitrag ist dabei aber nicht als rechtliche Beratung zu verstehen und erhebt keinen Anspruch auf Vollständigkeit und Korrektheit.

Im Rahmen des Gesetzes wird ein risikobasierter Ansatz verfolgt, in dem KI-Anwendungen entsprechend ihres Risikos auf den Menschen eingestuft und dementsprechend reguliert werden. Es wird also geprüft, welche Gefahren für die Gesundheit, Sicherheit und Grundrechte eines Menschen von einer KI-Anwendung ausgehen. Je nach Gefahr bestehen dann unterschiedliche Pflichten für Entwickler und Anwender. Grundlegend erfolgt die Einstufung ähnlich zu einem Ampelsystem in drei verschiedene Risikoklassen – unannehmbares Risiko, hohes Risiko und geringes, bzw. minimales Risiko. Eine detaillierte Beschreibung der Risikoklassen und zugehöriger Beispiele sind im Katalog zu finden, der dem Rechtsrahmen angehängt ist.

Unannehmbares Risiko

KI-Systeme mit unannehmbarem Risiko sind generell verboten. Dazu zählen bspw. Systeme, die:

  • Personen unterschwellig manipulieren und zu physischen oder psychischen Schäden führen,
  • Schwäche bestimmter schutzbedürftiger Gruppen ausnutzen,
  • Social Scoring betreiben oder
  • Biometrische Identifizierung in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken einsetzen (bis auf einige Ausnahmen).

Im Art. 5 des Rechtsrahmens sind verbotene KI-Systeme definiert.

This image was generated with the assistance of AI.

Hohes Risiko

Hierunter fallen KI-Systeme, von denen ein hohes Risiko für die Sicherheit, Gesundheit und Grundrechte von Menschen ausgeht. Insbesondere Dokumentations- und Kontrollpflichten oder die Gewährleistung einer menschlichen Aufsicht gehören zu den spezifischen Anforderungen von Hochrisiko-Anwendungen. Beispiele dafür sind:

  • Biometrische (Fern)Identifizierung,
  • Kritische Infrastrukturen (Wasser, Gas, Strom),
  • Allgemeine und berufliche Bildung,
  • Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit,
  • Zugänglichkeit und Inanspruchnahme grundlegender privater und öffentlicher Dienste und Leistungen oder
  • Rechtspflege und demokratische Prozesse.

Im Art. 6 sowie Anhang II und III sind vertiefende Informationen zu KI-Systemen mit hohem Risiko zu finden. In Art. 8-15 sind ausführliche Anforderungen an Hochrisikosysteme aufgeführt, darunter u.a. die Erklärbarkeit von KI im Art. 13.

This image was generated with the assistance of AI.

Geringes Risiko

KI-Systeme mit geringem Risiko sind nicht näher definiert. Hier könnten aber Anwendungen wie Chatbots oder Anwendungen in Videospielen adressiert werden. Der Fokus liegt auf Transparenzpflichten für bestimmte Systeme, um Nutzern bspw. zu verdeutlichen, dass mit einer KI und nicht mit einem Menschen kommuniziert wird oder Bilder, bzw. Videos von einer KI und nicht von Menschen erstellt wurden. Solche Inhalte sind im Art. 52 reguliert. Die Anforderungen für Entwickler und Anwender von Systemen mit geringem Risiko sind geringer als die Anforderungen an Hochrisiko-Systeme. Allerdings sind im Art. 69 verschiedene Anreize zu finden, um die Anforderungen an Hochrisiko-Systeme dennoch für Systeme mit geringem Risiko umzusetzen.

This image was generated with the assistance of AI.

Der EU AI Act richtet sich hauptsächlich an Nutzer, die sich in der EU befinden und an Anbieter, die ihre KI-Systeme auf dem Gebiet der EU in den Verkehr bringen oder in Betrieb nehmen. Bei Verstößen gegen das Gesetz ist mit hohen Sanktionen zu rechnen. Da dieser Rechtsrahmen schon nächstes Jahr in Kraft treten könnte, sollten Sie die Inhalte bestenfalls schon heute beachten, um die KI-Einführung in Ihrem Unternehmen langfristig und nachhaltig erfolgreich zu gestalten.

Quellen:

Autor:

Maximilian Reuß
Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF
wissenschaftlicher Mitarbeiter – Abteilung Logistik- und Fabriksysteme – Gruppe Kollaborativer Fabrikbetrieb
Sandtorstr. 22, 39106 Magdeburg, Germany
Mail: maximilian.reuss@iff.fraunhofer.de
Tel.: 0391 4090 705

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen